Fakultät Informatik

Data Engineering & Analytics

Die Technische Universität München (TUM) ist ein international anerkanntes Exzellenzzentrum für Datenbank-Engineering. Ihr hohes Ansehen spiegelt sich in Kooperationen mit führenden Industriepartnern und herausragenden akademischen Institutionen wieder. Die Stärke des Clusters „Data Engineering & Analytics“ liegt im systemzentrierten Arbeiten, das diverse Prototypen hervorbrachte. So etwa HyPer, das weithin als schnellstes Hauptspeicherdatenbanksystem gilt. Seine Lizenz zur Vermarktung erwarb Tableau, weltmarktführender Lieferant von analytischer Datenvisualisierung. Die TUM behielt die Forschungslizenz für HyPer, als einer besonders nützlichen Plattform zur Auswertung innovativer Forschungsergebnisse in Analyseverfahren zu Big Data. Die am Cluster "Data Engineering & Analytics" beteiligten Forschungsgruppen decken ein breites interdisziplinäres Spektrum im Bereich Engineering für Datenbanksysteme ab und verfügen über reiche Forschungsexpertise mit domäne-spezifischem analytischem Hintergrund. Ferner leisten sie praxisrelevante und in ihrer Anwendung validierte Forschungs- und Entwicklungsarbeit für die kommende Big Data Ära.

Wissenschaftler/innen mit Schwerpunkt

  • Prof. Stephan Günnemann
  • Prof. Alfons Kemper
  • Prof. Thomas Neumann
  • Prof. Thomas A. Runkler

Wissenschaftler/innen mit Beteiligung

  • Prof. Martin Bichler
  • Prof. Hans-Joachim Bungartz
  • Prof. Daniel Cremers
  • Prof. Peter Gritzmann (Fak. f. Mathematik)
  • Prof. Alois Knoll
  • Prof. Florian Matthes
  • Prof. Bjoern Menze
  • Prof. Burkhard Rost
  • Prof. Rüdiger Westermann

Exemplarische Projekte

HyPer

ist ein langfristig angelegtes Gemeinschaftsprojekt des Lehrstuhls für Datanbanksysteme (Profs. Kemper/Neumann). Dieses neu entwickelte In-memory Datenbanksystem integriert Transaktionsverarbeitung (OLTP), komplexe analytische Anfragebearbeitung (OLAP) und Datenexploration in einem Datenbankmotor im selben Datenbankstatus.

 Mehr dazu

DFG Emmy Noether Projekt: "Robust Data Mining of Large-scale Attributed Graphs"

Mit dem rasanten Wachstum der Sozialen Medien, Sensortechnologien und Anwendungen in den Lebenswissenschaften sind groß angelegte komplexe Graphen eine allgegenwärtige und äußerst wichtige Informationsquelle. Beispiele beinhalten Review und Co-purchase Netzwerke, Protein Interaction Netzwerke oder soziale Netzwerke. Das Ziel des Projektes ist die Entwicklung und Analyse robuster Verfahren zur Datengewinnung für groß angelegte komplexe Graphen. Weil speziell in Praxisanwendungen komplexe Graphen oft verfälscht werden, da sie ausreißeranfällig und Angriffen ausgeliefert sind, werden wir uns auf die Eigenschaften in puncto Robustheit der Methode konzentrieren. Die resultierenden Forschungsergebnisse dienen als Grundlage für Forschung und Entwicklung in Bereichen wie Spam- und Betrugsaufdeckung, hochentwickelte Datenbereinigung und Empfehlungssystemen.

 Mehr dazu

ERC Consolidator Grant CompDB: The Computational Database

Die ERC Consolidator Grants des European Reasearch Council (ERC) sollen exzellente Forschungsvorschläge junger Spitzenforscher innerhalb einer Laufzeit von bis zu fünf Jahren finanziell unterstützen. Im Jahr 2016 wurde der von Prof. Thomas Neumann eingereichte Forschungsvorschlag "The Computational Database für Real World Awareness CompDB" mit einem ERC Consolidator Grant ausgezeichnet.

Mehr dazu

DFG Priority Program: Scalable Data Management for Future Hardware

Der Ausgangspunkt des Schwerpunktprogramms unter dem Leitthema Scalable Data Management for Future Hardware besteht darin, dass zukünftige Architekturen von Datenverwaltungssystemen einer radikalen Änderung bedürfen, um auf der einen Seite das immer breitere Spektrum an Anwendungen befriedigen und auf der anderen Seite die Möglichkeiten auf Hardware- und Betriebssystem-nahen Ebenen effizient nutzen zu können.

 Mehr dazu