Information Systems Engineering
Projekte
Wir forschen zusammen mit renommierten Partnern in Wirtschaft und Wissenschaft weltweit. Im Folgenden gibt eine Übersicht aktueller durch Drittmittel geförderter Projekte.

Aktuelle Projekte

TEADAL

Trustworthy, Energy-Aware Federated Data Lakes Along the Computing Continuum

TOUCAN

Transparency in Cloud-Native Architecture and Engineering

DaSKITA

Daten-Souveränität durch KI-basierte Transparenz und Auskunft

GANGES

Gewährleistung von Anonymitäts-Garantien in Enterprise-Streaminganwendungen

Vergangene Projekte

SMILE

Das SMILE Projekt (Supporting MIgration to ServerLess Environments), durchgeführt am ISE-Lehrstuhl der TU-Berlin in Zusammenarbeit mit der IAV GmbH, hat das Ziel die Migration zu Serverless-Anwendungen methodisch und technisch zu untersuchen und zu unterstützen.

Serverless Computing ist ein neuartiger Ansatz im Cloud-Computing, wobei Anwender lediglich die Funktionalität ihrer Anwendungssysteme aufbauend auf Umgebungsdiensten definieren. Alle weiteren Ebenen der Ausführung sind für den Entwickler unsichtbar, da Verantwortlichkeiten, wie z.B. eine bedarfsorientierte Skalierung vom Cloud Provider übernommen werden. Anwendungsentwickler können sich daher auf die Erstellung von Anwendungen konzentrieren, anstatt komplexe Systeme zu verwalten.

Das Projekt zielt darauf ab, ein offenes Serverless-Migrations-Framework (SMF) zu erstellen, mit dem Teile traditioneller (Cloud-) Anwendungen auf eine Serverless Infrastruktur migriert werden können. Dabei wird das Vorhaben zunächst ein Augenmerk auf datenintensive Analyse-Anwendungen liegen, wie sie bei IAV im Rahmen von Fahrzeug Erprobung eingesetzt werden.

Das Projekt ist zum 1.2.2020 gestartet und im Rahmen des Software Campus vom BMBF gefördert. Weitere Informationen unter: https://ise-smile.github.io

BIMcontracts

Das vom Bundeswirtschaftsministerium für Wirtschaft und Energie geförderte Verbundprojekt BIMcontracts entwickelt in einem Konsortium aus Wirtschaft und Forschung in einer dreijährigen Projektphase eine Referenzarchitektur für ein automatisiertes und transparentes Vertrags- und Rechnungsmanagement in der Baubranche. Auf der Basis des Building Information Modeling (BIM) werden digitale Bauwerksmodelle komplexe Vertragskonstellationen vereinfachen und Verzögerungen in der Zahlungskette vermeiden. Gerade für kleine und mittlere Dienstleister in der Baubranche bedeuten die im Projektverlauf entstehenden sicheren Transaktionsprozesse die Verminderung üblicher Liquiditäts- und Insolvenzrisiken, zudem wird die Leistungserbringung bei Bauprojekten von der Planung bis zur Umsetzung verbessert. Basis ist die Nutzung moderner Blockchain-Technologie in Verbindung mit Smart-Contracts-Konzepten. Unsere Rolle im Projekt „Automatisiertes Zahlungs- und Vertragsmanagement im Bauwesen mittels Blockchain-Technologie und BIM (BIMCHAIN)“. Das Projekt ist am 01.01.2020 gestartet und wurde für 15 Monate gefördert. Mehr dazu auf der Projekt-Webseite: bimcontracts.com

BloGPV.Blossom

Mit der Blockchain-Technologie werden kritische Eigenschaften verbunden, deren Einführung und Sicherstellung für verschiedenste Anwendungsbereiche und Einsatzgebiete enorme Chancen verspricht: Beschleunigung und Kostenersparnisse in der Transaktionsverarbeitung; hohe Transparenz und Manipulationssicherheit von erfolgten Transaktionen; dezentrale und zugleich konsistente Datenhaltung in Geschäftsnetzwerken.

Im Verbundprojekt BloGPV wird der Einsatz de Blockchain-Technologie für die Energiewirtschaft erforscht. Dabei steht die Erhaltung und Steigerung der Wirtschaftlichkeit von PV-Anlagen als energiewirtschaftliches Ziel im Zentrum der Betrachtung. Neue Ansätze für dieses Ziel sind dringend notwendig, da eine stetig wachsende Anzahl von PV-Anlagen aus der EEG-Förderung fällt und gleichzeitig eine Direktvermarktung von Energie für Besitzer von PV-Anlagen aufgrund niedriger Preise an der Strombörse häufig nicht kostendeckend ist. Wie können PV-Anlagenbetreiber daher ihren Eigenverbrauch erhöhen oder überschüssigen PV-Strom zu attraktiveren Preisen handeln?

Das Verbundprojekt BloGPV entwickelt und erprobt einen Blockchain-basierten virtuellen Großspeicher für PV-Anlagenbetreiber. Die Geschäftsprozesse für den Betrieb eines solchen Großspeichers sind durch eine Vielzahl von autonomen und dezentralen Akteuren charakterisiert, die dieselbe Datenbasis teilen und bearbeiten müssen; die Steuerung von Speichern, die Bilanzierung von Energie oder die Abwicklung von Abrechnungen erfordert deshalb sichere IT-Lösungen für Geschäftsnetzwerke. Die Blockchain-Technologie für „vertrauenslose“ Interaktionen stellt hierbei gerade einen vertrauenswerten Ansatz dar.

Das Fachgebiet Information Systems Engineering (ISE) an der TU Berlin unter der Leitung von Prof. Tai widmet sich dieser Herausforderung. Im BloGPV-Teilvorhaben Blossom (Blockchain Systeme und Off-Chaining Methoden) entwickelt ISE ein dezentrales und vertrauensloses Datenverarbeitungssystem, Smart Contracts und verteilte Transaktionen für das Abrechnungs- und Speichermanagement. Dabei entstehen Lösungsansätze zur Verbesserung von Skalierbarkeit, zur Umsetzung komplexer Geschäftslogik in Smart Contracts, sowie zur Systemintegration zwischen Blockchain- und Nicht-Blockchain-Systemen.

Das Projekt ist zum 1.4.2018 gestartet und wurde im Rahmen der Smart Service Welt II Initiative für drei Jahre gefördert.

Cloud Service Benchmarking

The advent of cloud computing has disruptively changed the way modern application systems are developed and delivered, but it has also shifted control over key parts of an application system to the cloud provider: Cloud consumers typically have to treat the cloud infrastructure that they are using as a black-box. As a consequence, the quality of the cloud infrastructure often is unpredictable, changes over time, and can vary significantly between different cloud providers.

In this project, we develop novel techniques and toolkits for cloud service benchmarking, especially of cloud storages services, to study complex service qualities and their interdependencies. We also aim to use this knowledge to help cloud consumers deal with variable cloud quality levels.

Current Activities:

  • In the sub-project BenchFoundry: A Framework for Cloud Database Benchmarking, we are working on a novel benchmarking middleware. Today, each benchmark needs to be implemented for each database platform. With BenchFoundry  we aim to provide a toolkit which can run arbitrary application-driven benchmarks against a range of cloud database services – ranging from simple key-value stores up to full relational database systems. This sub-project is in cooperation with Akon Dey (University of Sydney, Awake Networks Inc.).
  • We are currently working on a book with the working title Cloud Benchmarking: Demystifying Quality of Cloud Infrastructure Services which is scheduled to appear in early 2017. With this book, we will offer the first comprehensive overview of cloud service benchmarking. Starting with a broad introduction to the field, this book aims to walk the reader step-by-step through the process of designing, implementing and executing a benchmark as well as understanding and dealing with results. The book will be co-authored by Erik Wittern (IBM Research).
  • We are also working on a number of concrete benchmarking sub-projects. For instance, we are currently benchmarking the quality impacts of enabling security features in cloud datastores or trying to understand the quality of web APIs and how they impact applications.

EMIDD

Das Bundesministerium der Justiz und für Verbraucherschutz fördert am Fachgebiet Information Systems Engineering ein Forschungsprojekt zum Einwilligungsmanagement für das Internet der Dinge (internet of things, IoT). Individuelle, informierte, spezifische und explizit abgegebene Einwilligungen sind eine der tragenden Säulen des Datenschutzrechts. Traditionell wurden solche Einwilligungen z.B. schriftlich oder über das Setzen eines Häkchens unter einer mehrere Seiten langen Datenschutzerklärung abgegeben. Im Kontext des IoT – wo einerseits keine traditionellen Nutzerinterfaces zur Verfügung stehen und andererseits einmal erhobene Daten für eine Vielzahl weiterer, wünschenswerter Zwecke genutzt werden können – ist dieser Ansatz offensichtlich nicht mehr tragfähig. Vielmehr sind neue, technisch unterstützte Ansätze zum Einwilligungsmanagement erforderlich. Im Projekt EMIDD („Einwilligungsmanagement für das Internet der Dinge“) werden – über eine Projektlaufzeit von 15 Monaten ab April 2017 – die Möglichkeiten solcher technischer Ansätze wie auch ihre Anschlussfähigkeit zu derzeitigem und zukünftigem Datenschutzrecht erforscht.

Mehr dazu auf der Projekt-Webseite: https://emidd.de/

DITAS

Heutige Anwendungen laufen großteils bereits nativ in der Cloud – für zukünftige Anwendungen wie beispielsweise autonomen Fahrens, e-Health oder auch intelligenter Produktionsstraßen reicht dies jedoch nicht aus, da die Antwortzeiten oftmals zu lange dauern oder auch Fragen aus dem Kontext von Privacy dies verhindern. An dieser Stelle hilft das sogenannte Fog-Computing, bei dem Teile von Anwendungen zwar in zentralen Cloud-Rechenzentren laufen, andere Teile jedoch am „Edge“, d.h. sehr nahe zu den Endnutzern. Im Kontext autonomen Fahrens würde man Edge-Locations beispielsweise an jedem Mobilfunkmast oder entlang der Straßen positionieren. Auf Grund der begrenzten Kapazität von Edge-Locations ist hierbei auch immer wieder eine Synchronisation mit den zentralen Clouddiensten notwendig, was die folgende Kernfrage motiviert: welche Daten liegen wann an welchen Edge-Locations oder in der Cloud vor und wie gelangen sie dort hin?

Das Fachgebiet Information Systems Engineering möchte an dieser Stelle ansetzen und ein neuartiges Datenmanagementsystem entwickeln, das Datensätze wie eine Wolke mit den Endnutzern mitwandern lässt, um Qualitätseigenschaften wie beispielsweise kurze Antwortzeiten oder Datenkonsistenz sicherzustellen. Gleichzeitig soll dieses neue System auch Ressourcenbegrenzungen an Edge-Locations beachten, Daten mit der Cloud abgleichen und dabei auch Privacy-Anforderungen sicherstellen. Beispielsweise sollen im Kontext von e-Health Gesundheitsdaten zwar an Forschungseinrichtungen weitergegeben werden, dies jedoch nur anonymisiert und auch an niemanden sonst, solange die Patienten diesem nicht explizit zugestimmt haben.


Smartes Datenmanagement mit Qualitätsgarantie

Eine große wissenschaftliche Herausforderung liegt hier insbesondere in der Dynamik, die durch Bewegung von Endnutzern erzwungen wird, aber auch in der hohen Anzahl an potentiellen Datenspeichern und der sich daraus ergebenden Anforderungen an Fehlertoleranz, Verfügbarkeit und Datenkonsistenz. Beispielsweise dürfen Gesundheitsdaten nicht verloren gehen und im Kontext autonomen Fahrens könnte ein Ausfall des Systems schnell zu Unfällen führen.


Umsetzung mit internationalem Konsortium für direkte Marktnutzung

Basierend auf den grundlegenden Forschungsergebnissen der Universitätspartner TU Berlin und Politecnico Milano (Italien) sollen die Industriepartner IBM Research Haifa (Israel), ICCS (Griechenland), Atos (Spanien) und CloudSigma (Schweiz) die Projektergebnisse direkt zur Marktreife treiben. Bereits im Laufe des Projektes fließen daher Vorgaben der Praxispartner IK4-IDEKO (Spanien), die eine Industrie 4.0-Produktionsstraße betreiben, sowie des Ospedale San Raffaele (Italien), einem großen Krankenhaus in Mailand ein. Gemeinsam mit beiden Partnern werden die Projektergebnisse anschließend in der Praxis erprobt.

Das Projekt ist zum 1.1.2017 gestartet und wird im Rahmen der H2020-Initiative (ICT-Call) der EU für drei Jahre gefördert. Das Gesamtfördervolumen des Verbunds beträgt 4,9 Millionen Euro, gut 750.000 Euro davon gehen dabei an die TU Berlin.

SPiCE

Das SPiCE Projekt („SPICE: Security-Performance Trade-offs in Cloud Engineering“) beschäftigt sich mit den komplexen Abhängigkeiten zwischen Sicherheit und verschiedenen Performanceaspekten in modernen, Cloud-basierten Systemen.

Insbesondere haben wir eine strukturierte Methode zur Rationalisierung sicherheitsrelevanter Konfigurationsentscheidungen entwickelt, die in der Praxis nur selten auf verbindlichen (d. h. quantitativen) Kriterien und Daten beruhen, sondern nur allzu oft aus dem Bauch heraus getroffen werden. Nach dieser Methode bewerten wir experimentell die Auswirkungen verschiedener Sicherheitskonfigurationen auf die Leistung von großen Datenbanksystemen (Cassandra, HBase usw.), die in Industrie und Forschung weit verbreitet sind. Durch diesen Ansatz konnten wir vielfältige Wechselwirkungen zwischen sicherheits- und performancebezogenen Merkmalen feststellen. So fanden wir beispielsweise massive Einbrüche in Sachen Durchsatz, wenn bestimmte Sicherheitsoptionen von HBase aktiviert wurden. Um das gleiche Maß an Sicherheit zu erreichen können auch andere Maßnahmen getroffen werden, die sich nicht auf die Leistung von HBase auswirken. Die Inkaufnahme der zusätzlichen Kosten für solche Maßnahmen kann die effizientere Option sein, da ein bestimmter Zieldurchsatz mit weniger HBase-Knoten erreicht werden kann.

Natürlich lassen sich aus solchen Erkenntnissen normative Aussagen über die konkrete Konfiguration und den Betrieb entsprechender Systeme treffen, die bestimmte Sicherheitsanforderungen erfüllen müssen (um z.B. regulatorischen Vorgaben zu genügen), gleichzeitig aber auch definierte Leistungsmerkmale aufweisen und nicht zuletzt möglichst kosteneffizient sein müssen.

PolyEnergyNet

Das Projekt PolyEnergyNet (PEN) beschreibt ein Forschungsvorhaben zur Verbesserung der Widerstandsfähigkeit von Stromnetzen auf Ebene von Mittel- und Niederspannung. Neben regelbaren erneuerbaren Energiequellen wird dafür auf Gas- und Fernwärmenetz zurückgegriffen. Das Bindeglied für diese Netze und ihre Steuerung ist das IKT-Netz. Aus dieser Verknüpfung der Netze ist der Name "PolyEnergyNet" begründet.

Zielsetzung

Das Stromnetz in Deutschland ist für eine zentrale Einspeisestruktur ausgelegt. Durch zunehmende dezentrale Erzeugung (insbesondere auf Niederspannungsebene) entstehen neue Herausforderungen. Eine dieser Herausforderungen ist die Gewährleistung und Verbesserung der Netzstabilität, welche im Fokus der Forschung von PEN steht.

Das Stromnetz, als primäres Netz, soll dazu resilient gemacht werden. Resilienz ist eine mehrdimensionale Eigenschaft, die beispielsweise Hochverfügbarkeit, Robustheit und Selbstschutz vor Fehlern und Angriffen umfasst. Durch die Kopplung des Stromnetzes mit den anderen Netzen, insbesondere dem IKT-Netz und der damit verbundenen Software- und Hardwarekomponenten, müssen diese ebenfalls in der Lage sein ein resilientes Stromnetz zu unterstützen. Ein übergeordnetes Ziel von PEN ist daher auch die Schaffung und Nutzung einer geeigneten Informationsbasis, die es selbst bei kritischen Netzzuständen erlaubt angemessen zu reagieren. Dies könnte beispielsweise die Aufrechterhaltung eines Notbetriebs innerhalb eines Ortsnetzes oder Straßenzugs sein oder Quarantäne für Teile des Ortsnetzes im Falle eines Angriffs, bis eine Wiedereingliederung in das Gesamtsystem möglich ist.

Ansatz

Um Netze und autonome Teilnetzabschnitte mit geeigneter Dynamik abbilden zu können wird im PolyEnergyNet ein sog. Holonmodell entwickelt. Ein Holon bezeichnet im wörtlichen Sinne den Teil eines Ganzen. Holone sind in ihrer Natur dynamisch und können sich beispielsweise zu größeren Einheiten zusammenschließen und wieder zerfallen. Ein Holon ist im PolyEnergyNet ein Teilnetzgebiet, welches zum aktuellen Zeitpunkt eine Energiebilanz von null aufweißt. Die kleinste Instanz eines Holons wäre beispielsweise ein Haushalt mit steuerbaren Komponenten, welcher sich komplett autonom versorgt.

Unter Hinzunahme der realen Bedingunen in einem Testgebiet werden Szenarien definiert, die beispielsweise die Reaktion von existierenden Holonen auf eine Übereinspeisung behandeln.
Basierend auf dieser modelltheoretischen Betrachtung der Netze werden Logik, Soft- und Hardwarekomponenten so wie Anforderungen an diese entwickelt und bewertet. Prototypische Implementierungen in inkrementellen Ausbaustufen werden sowohl im Modell als auch im realen Feldtest evaluiert.

Unsere Rolle im Projekt

Der Lehrstuhl ISE ist im Projekt PEN mit der Aufgabe betreut ein Datenmanagementsystem zu konzeptionieren, prototypisch zu implementieren und es entsprechend der Anforderungen zu evaluieren. Das Datenmangementsystem muss dabei mehreren funktionalen und nicht-funktionalen Anforderungen genügen, die sich aus dem speziellen Anwendungsfall ergeben. Es ist als Speicher- und Verteilschicht für sämtliche anfallenden Messdaten vorgesehen.
Einige Anforderungen und Schlüsselkonzepte für das Datenmangementsystem und dessen Evaluation sind

  • Verteilte Systemarchitektur für Hochverfügbarkeit
  • Einbindung heterogener Messdatenquellen (Sensorik)
  • Unterstützung von heterogenen Messdatensenken (Analyse, Logik)
  • Einheitliches, somänenspezifisches Datenformat
  • Unterstützung von Echtzeit-Anforderungen: geringe Latenz
  • Entwicklung geeigneter Metriken und Messverfahren für die kontextspezifische Bewertung des Datenmanagementsystems

Ergebnisse

Im Rahmen von PolyEnergyNet wurde an der TU Berlin RIFT (Resilient Infrastructure for Things) entwickelt. RIFT umfasst eine prototypische Implementierung.

RIFT besteht aus (i) einem hochverfügbaren, skalierbaren und resilienten Managementsystemen für Zeitreihendaten und (ii) aus einem Framework für die quantitative Messung von Qualitätseigenschaften von Managementsystemen für Zeitreihendaten