Information Systems Engineering
Projekte
Wir forschen zusammen mit renommierten Partnern in Wirtschaft und Wissenschaft weltweit. Im Folgenden gibt eine Übersicht aktueller durch Drittmittel geförderter Projekte.

Aktuelle Projekte

TEADAL

Trustworthy, Energy-Aware Federated Data Lakes Along the Computing Continuum

ZKPlus

Encouraging the adoption of zero knowledge based solutions

TOUCAN

Transparency in Cloud-Native Architecture and Engineering

GANGES

Gewährleistung von Anonymitäts-Garantien in Enterprise-Streaminganwendungen

Vergangene Projekte

In den vergangenen Jahren konnten wir diverse namenhafte Projekte aus unseren Forschungsbereichen Cloud-nativer Plattformen und Anwendungen, Blockchain-Technologien und -Innovationen, sowie Privacy Engineering gewinnen.

DaSKITA

Ziel des dreijährigen Projekts DaSKITA ist die Entwicklung und prototypische Erprobung KI-basierter Konzepte, Mechanismen und Werkzeuge, auf deren Basis Verbraucher ein höheres Maß an Informiertheit und Selbstbestimmtheit im Kontext datenbasierter Dienste erhalten.

Transparenz- und Auskunftsrechte sind hierfür seit jeher fester Bestandteil des datenschutz-rechtlichen Rahmens: Um im digitalen Alltag souverän und selbstbestimmt agieren zu können, müssen Verbraucher wissen, “wer was wann und bei welcher Gelegenheit über sie weiß” (BVerfG 65, 1). In der Praxis ist jedoch sowohl die Ausübung entsprechender Rechte als auch das tatsächliche Verstehen bereitgestellter Informationen mit prohibitiven Hürden versehen. Verbraucher sind trotz grundsätzlich bestehender Rechte daher meist nicht ausreichend informiert, um im digitalen Alltag tatsächlich souverän und selbstbestimmt zu agieren. In enger Zusammenarbeit zwischen informatischer, rechts- und gesellschaftspolitischer Forschung und unternehmerischer Praxis sollen im Projekt DaSKITA daher konkrete, KI-basierte Technologien zur aufwandsarmen Ausübung von Transparenz- und Auskunftsrechten, zur vereinfachten Rezeption entsprechender Informationen sowie zu deren maschinenlesbarer Bereitstellung durch Dienstanbieter entwickelt und damit ein nachhaltiger Beitrag zur Verbrauchersouveränität im digitalen Alltag geleistet werden.

Im Sinne eines ganzheitlichen „Privacy Engineering“ auch jenseits von Datensparsamkeit und Sicherheit soll dadurch ein signifikanter Beitrag zur technisch vermittelten Erfüllung der Anforderungen insbesondere der DSGVO („privacy/data protection by design“) geleistet werden. Die entwickelten technischen Artifakte sind auf Github frei verfügbar: github.com/DaSKITA/.

Das Fachgebiet Information Systems Engineering (ISE) der TU Berlin ist Konsortialführer und befasst sich insbesondere mit Fragen der formalen Repräsentation, maschinenlesbaren Bereitstellung und KI-basierten Extraktion von datenschutzrechlichen Transparenzinformationen aus Datenschutzerklärungen, der KI-unterstützten Einholung von Datenauskünften und der nutzerseitigen Aufbereitung. Projektpartner ist das iRights.Lab.

Das Projekt ist zum 01.01.2020 gestartet und wurde für 3 1/4 Jahre aus Mitteln des Bundesministeriums für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) aufgrund eines Beschlusses des deutschen Bundestages gefördert. Die Projektträgerschaft erfolgte über die Bundesanstalt für Landwirtschaft und Ernährung (BLE) im Rahmen des Programms zur Innovationsförderung.

SMILE

Das SMILE Projekt (Supporting MIgration to ServerLess Environments), durchgeführt am ISE-Lehrstuhl der TU-Berlin in Zusammenarbeit mit der IAV GmbH, hat das Ziel die Migration zu Serverless-Anwendungen methodisch und technisch zu untersuchen und zu unterstützen.

Serverless Computing ist ein neuartiger Ansatz im Cloud-Computing, wobei Anwender lediglich die Funktionalität ihrer Anwendungssysteme aufbauend auf Umgebungsdiensten definieren. Alle weiteren Ebenen der Ausführung sind für den Entwickler unsichtbar, da Verantwortlichkeiten, wie z.B. eine bedarfsorientierte Skalierung vom Cloud Provider übernommen werden. Anwendungsentwickler können sich daher auf die Erstellung von Anwendungen konzentrieren, anstatt komplexe Systeme zu verwalten.

Das Projekt zielt darauf ab, ein offenes Serverless-Migrations-Framework (SMF) zu erstellen, mit dem Teile traditioneller (Cloud-) Anwendungen auf eine Serverless Infrastruktur migriert werden können. Dabei wird das Vorhaben zunächst ein Augenmerk auf datenintensive Analyse-Anwendungen liegen, wie sie bei IAV im Rahmen von Fahrzeug Erprobung eingesetzt werden.

Das Projekt ist zum 1.2.2020 gestartet und im Rahmen des Software Campus vom BMBF gefördert. Weitere Informationen unter: https://ise-smile.github.io

BIMcontracts

Das vom Bundeswirtschaftsministerium für Wirtschaft und Energie geförderte Verbundprojekt BIMcontracts entwickelt in einem Konsortium aus Wirtschaft und Forschung in einer dreijährigen Projektphase eine Referenzarchitektur für ein automatisiertes und transparentes Vertrags- und Rechnungsmanagement in der Baubranche. Auf der Basis des Building Information Modeling (BIM) werden digitale Bauwerksmodelle komplexe Vertragskonstellationen vereinfachen und Verzögerungen in der Zahlungskette vermeiden. Gerade für kleine und mittlere Dienstleister in der Baubranche bedeuten die im Projektverlauf entstehenden sicheren Transaktionsprozesse die Verminderung üblicher Liquiditäts- und Insolvenzrisiken, zudem wird die Leistungserbringung bei Bauprojekten von der Planung bis zur Umsetzung verbessert. Basis ist die Nutzung moderner Blockchain-Technologie in Verbindung mit Smart-Contracts-Konzepten. Unsere Rolle im Projekt „Automatisiertes Zahlungs- und Vertragsmanagement im Bauwesen mittels Blockchain-Technologie und BIM (BIMCHAIN)“. Das Projekt ist am 01.01.2020 gestartet und wurde für 15 Monate gefördert. Mehr dazu auf der Projekt-Webseite: bimcontracts.com

BloGPV.Blossom

Mit der Blockchain-Technologie werden kritische Eigenschaften verbunden, deren Einführung und Sicherstellung für verschiedenste Anwendungsbereiche und Einsatzgebiete enorme Chancen verspricht: Beschleunigung und Kostenersparnisse in der Transaktionsverarbeitung; hohe Transparenz und Manipulationssicherheit von erfolgten Transaktionen; dezentrale und zugleich konsistente Datenhaltung in Geschäftsnetzwerken.

Im Verbundprojekt BloGPV wird der Einsatz de Blockchain-Technologie für die Energiewirtschaft erforscht. Dabei steht die Erhaltung und Steigerung der Wirtschaftlichkeit von PV-Anlagen als energiewirtschaftliches Ziel im Zentrum der Betrachtung. Neue Ansätze für dieses Ziel sind dringend notwendig, da eine stetig wachsende Anzahl von PV-Anlagen aus der EEG-Förderung fällt und gleichzeitig eine Direktvermarktung von Energie für Besitzer von PV-Anlagen aufgrund niedriger Preise an der Strombörse häufig nicht kostendeckend ist. Wie können PV-Anlagenbetreiber daher ihren Eigenverbrauch erhöhen oder überschüssigen PV-Strom zu attraktiveren Preisen handeln?

Das Verbundprojekt BloGPV entwickelt und erprobt einen Blockchain-basierten virtuellen Großspeicher für PV-Anlagenbetreiber. Die Geschäftsprozesse für den Betrieb eines solchen Großspeichers sind durch eine Vielzahl von autonomen und dezentralen Akteuren charakterisiert, die dieselbe Datenbasis teilen und bearbeiten müssen; die Steuerung von Speichern, die Bilanzierung von Energie oder die Abwicklung von Abrechnungen erfordert deshalb sichere IT-Lösungen für Geschäftsnetzwerke. Die Blockchain-Technologie für „vertrauenslose“ Interaktionen stellt hierbei gerade einen vertrauenswerten Ansatz dar.

Das Fachgebiet Information Systems Engineering (ISE) an der TU Berlin unter der Leitung von Prof. Tai widmet sich dieser Herausforderung. Im BloGPV-Teilvorhaben Blossom (Blockchain Systeme und Off-Chaining Methoden) entwickelt ISE ein dezentrales und vertrauensloses Datenverarbeitungssystem, Smart Contracts und verteilte Transaktionen für das Abrechnungs- und Speichermanagement. Dabei entstehen Lösungsansätze zur Verbesserung von Skalierbarkeit, zur Umsetzung komplexer Geschäftslogik in Smart Contracts, sowie zur Systemintegration zwischen Blockchain- und Nicht-Blockchain-Systemen.

Das Projekt ist zum 1.4.2018 gestartet und wurde im Rahmen der Smart Service Welt II Initiative für drei Jahre gefördert.

ZoKrates

Das Interesse an Blockchains wie Bitcoin und Ethereum hat in den letzten Jahren erheblich zugenommen, und viele Anwendungsfälle werden derzeit von Wissenschaft und Industrie erforscht und umgesetzt. Die begrenzte Skalierbarkeit und die Bedenken hinsichtlich des Transaktionsschutzes und der Vertraulichkeit von Daten in öffentlichen Blockchain-Netzwerken sind jedoch Probleme, die neuartige Lösungen erfordern, um eine breite Akzeptanz dieser neuen Klasse von Systemen zu ermöglichen.

Im Rahmen des ZoKrates-Projekts erforschen wir Ansätze zur Bewältigung dieser Herausforderungen, indem wir Berechnungen effizient aus der Blockchain auslagern, ohne deren wünschenswerte Eigenschaften, z. B. Vertrauenswürdigkeit und unveränderliche Historie, zu beeinträchtigen.

Wir verwenden zkSNARKs, eine Technik aus dem Bereich der überprüfbaren Berechnungen, um Berechnungen aus der Blockchain auszulagern und ihre Korrektheit auf der Blockchain effizient zu verifizieren. Indem wir die Notwendigkeit einer vollständig redundanten Transaktionsverarbeitung im Netzwerk beseitigen, können wir die Belastung des Systems reduzieren und somit die Skalierbarkeit verbessern. Durch die Nutzung von Zero-Knowledge-Proofs ermöglichen wir außerdem eine verbesserte Vertraulichkeit von Transaktionen in Blockchain-Systemen. Die in diesem Forschungsprojekt entwickelte Software ZoKrates verbirgt die erhebliche Komplexität von Zero-Knowledge-Beweisen und bietet Entwicklern eine vertrautere und höherwertige Programmierabstraktion. Zu diesem Zweck bietet sie eine Toolbox zur Spezifikation, Integration und Bereitstellung von Off-Chain-Berechnungen. Diese Toolbox besteht aus einer domänenspezifischen Sprache, einem Compiler und Generatoren für Beweisen und Verifikations-Smart Contracts. Außerdem ermöglicht sie die Integration von Schaltkreisen und fördert so die Akzeptanz.

Die erste Implementierung, die auf die Ethereum-Blockchain abzielt, wurde erstmals auf der Ethereum Devcon 3 in Cancun, Mexiko, vorgestellt (Vortrag: Beschreibung, Video; Workshop: Video). Zusätzlich gibt es eine Podcastepisode.

Das Forschungspapier, in dem das Projekt ausführlicher beschrieben wird, wurde auf der IEEE Blockchain 2018 in Halifax, Kanada, veröffentlicht und mit dem Preis für das beste Papier ausgezeichnet.

Das Open-Source Projekt ist frei verfügbar unter: github.com/Zokrates/ZoKrates.

Die fortlaufende Entwicklung von ZoKrates wird von der Ethereum Foundation unterstützt. Darüber hinaus wurde das ZoKrates-Projekt als einer von neun Zuschussempfängern aus mehr als 100 Vorschlägen für den Samsung NEXT Stack Zero grant ausgewählt. Mit dieser Spende wird die Entwicklung von ZoKrates durch Open Collective weiter unterstützt.

Darüber hinaus ermutigen wir zu Open-Source-Beiträgen und Forschungskooperationen. Sprechen Sie uns an!

Cloud Service Benchmarking

Das Aufkommen des Cloud-Computing hat die Art und Weise, wie moderne Anwendungssysteme entwickelt und bereitgestellt werden, grundlegend verändert, aber auch die Kontrolle über wichtige Teile eines Anwendungssystems auf den Cloud-Anbieter übertragen: Cloud-Nutzer müssen die von ihnen genutzte Cloud-Infrastruktur in der Regel wie eine Blackbox behandeln. Dies hat zur Folge, dass die Qualität der Cloud-Infrastruktur oft nicht vorhersehbar ist, sich im Laufe der Zeit ändert und zwischen verschiedenen Cloud-Anbietern stark variieren kann. In diesem Projekt entwickeln wir neuartige Techniken und Toolkits für das Benchmarking von Cloud-Diensten, insbesondere von Cloud-Storage-Diensten, um komplexe Servicequalitäten und ihre gegenseitigen Abhängigkeiten zu untersuchen. Außerdem wollen wir dieses Wissen nutzen, um Cloud-Nutzern zu helfen, mit variablen Cloud-Qualitätsniveaus umzugehen. Im Rahmen des Projekts gibt es drei Teilprojekte:

  • In dem Teilprojekt BenchFoundry: A Framework for Cloud Database Benchmarking" arbeiten wir an einer neuartigen Benchmarking-Middleware. Heute muss jeder Benchmark für jede Datenbankplattform implementiert werden. Mit BenchFoundry wollen wir ein Toolkit bereitstellen, mit dem beliebige anwendungsgesteuerte Benchmarks gegen eine Reihe von Cloud-Datenbankdiensten durchgeführt werden können - von einfachen Key-Value-Stores bis hin zu vollständigen relationalen Datenbanksystemen. Dieses Teilprojekt wird in Zusammenarbeit mit Akon Dey (University of Sydney, Awake Networks Inc.) durchgeführt.
  • Wir arbeiten an einem Buch mit dem Titel "Cloud Service Benchmarking: Measuring Quality of Cloud Services from a Client Perspective", das Anfang 2017 erschienen ist. Mit diesem Buch werden wir den ersten umfassenden Überblick über das Benchmarking von Cloud-Diensten bieten. Das Buch beginnt mit einer umfassenden Einführung in das Thema und soll den Leser Schritt für Schritt durch den Prozess der Konzeption, Implementierung und Durchführung eines Benchmarks sowie das Verständnis und den Umgang mit den Ergebnissen führen. Das Buch wird von Erik Wittern (IBM Research) mitverfasst.
  • Wir arbeiten auch an einer Reihe konkreter Benchmarking-Unterprojekte. So führen wir Benchmarking-Tests zu den Qualitätsauswirkungen der Aktivierung von Sicherheitsfunktionen in Cloud-Datenspeichern durch oder versuchen, die Qualität von Web-APIs und deren Auswirkungen auf Anwendungen zu verstehen.

EMIDD

Das Bundesministerium der Justiz und für Verbraucherschutz fördert am Fachgebiet Information Systems Engineering ein Forschungsprojekt zum Einwilligungsmanagement für das Internet der Dinge (internet of things, IoT). Individuelle, informierte, spezifische und explizit abgegebene Einwilligungen sind eine der tragenden Säulen des Datenschutzrechts. Traditionell wurden solche Einwilligungen z.B. schriftlich oder über das Setzen eines Häkchens unter einer mehrere Seiten langen Datenschutzerklärung abgegeben. Im Kontext des IoT – wo einerseits keine traditionellen Nutzerinterfaces zur Verfügung stehen und andererseits einmal erhobene Daten für eine Vielzahl weiterer, wünschenswerter Zwecke genutzt werden können – ist dieser Ansatz offensichtlich nicht mehr tragfähig. Vielmehr sind neue, technisch unterstützte Ansätze zum Einwilligungsmanagement erforderlich. Im Projekt EMIDD („Einwilligungsmanagement für das Internet der Dinge“) werden – über eine Projektlaufzeit von 15 Monaten ab April 2017 – die Möglichkeiten solcher technischer Ansätze wie auch ihre Anschlussfähigkeit zu derzeitigem und zukünftigem Datenschutzrecht erforscht.

DITAS

Heutige Anwendungen laufen großteils bereits nativ in der Cloud – für zukünftige Anwendungen wie beispielsweise autonomen Fahrens, e-Health oder auch intelligenter Produktionsstraßen reicht dies jedoch nicht aus, da die Antwortzeiten oftmals zu lange dauern oder auch Fragen aus dem Kontext von Privacy dies verhindern. An dieser Stelle hilft das sogenannte Fog-Computing, bei dem Teile von Anwendungen zwar in zentralen Cloud-Rechenzentren laufen, andere Teile jedoch am „Edge“, d.h. sehr nahe zu den Endnutzern. Im Kontext autonomen Fahrens würde man Edge-Locations beispielsweise an jedem Mobilfunkmast oder entlang der Straßen positionieren. Auf Grund der begrenzten Kapazität von Edge-Locations ist hierbei auch immer wieder eine Synchronisation mit den zentralen Clouddiensten notwendig, was die folgende Kernfrage motiviert: welche Daten liegen wann an welchen Edge-Locations oder in der Cloud vor und wie gelangen sie dort hin?

Das Fachgebiet Information Systems Engineering möchte an dieser Stelle ansetzen und ein neuartiges Datenmanagementsystem entwickeln, das Datensätze wie eine Wolke mit den Endnutzern mitwandern lässt, um Qualitätseigenschaften wie beispielsweise kurze Antwortzeiten oder Datenkonsistenz sicherzustellen. Gleichzeitig soll dieses neue System auch Ressourcenbegrenzungen an Edge-Locations beachten, Daten mit der Cloud abgleichen und dabei auch Privacy-Anforderungen sicherstellen. Beispielsweise sollen im Kontext von e-Health Gesundheitsdaten zwar an Forschungseinrichtungen weitergegeben werden, dies jedoch nur anonymisiert und auch an niemanden sonst, solange die Patienten diesem nicht explizit zugestimmt haben.


Smartes Datenmanagement mit Qualitätsgarantie

Eine große wissenschaftliche Herausforderung liegt hier insbesondere in der Dynamik, die durch Bewegung von Endnutzern erzwungen wird, aber auch in der hohen Anzahl an potentiellen Datenspeichern und der sich daraus ergebenden Anforderungen an Fehlertoleranz, Verfügbarkeit und Datenkonsistenz. Beispielsweise dürfen Gesundheitsdaten nicht verloren gehen und im Kontext autonomen Fahrens könnte ein Ausfall des Systems schnell zu Unfällen führen.


Umsetzung mit internationalem Konsortium für direkte Marktnutzung

Basierend auf den grundlegenden Forschungsergebnissen der Universitätspartner TU Berlin und Politecnico Milano (Italien) sollen die Industriepartner IBM Research Haifa (Israel), ICCS (Griechenland), Atos (Spanien) und CloudSigma (Schweiz) die Projektergebnisse direkt zur Marktreife treiben. Bereits im Laufe des Projektes fließen daher Vorgaben der Praxispartner IK4-IDEKO (Spanien), die eine Industrie 4.0-Produktionsstraße betreiben, sowie des Ospedale San Raffaele (Italien), einem großen Krankenhaus in Mailand ein. Gemeinsam mit beiden Partnern werden die Projektergebnisse anschließend in der Praxis erprobt.

Das Projekt ist zum 1.1.2017 gestartet und wird im Rahmen der H2020-Initiative (ICT-Call) der EU für drei Jahre gefördert. Das Gesamtfördervolumen des Verbunds beträgt 4,9 Millionen Euro, gut 750.000 Euro davon gehen dabei an die TU Berlin.

SPiCE

Das SPiCE Projekt („SPICE: Security-Performance Trade-offs in Cloud Engineering“) beschäftigt sich mit den komplexen Abhängigkeiten zwischen Sicherheit und verschiedenen Performanceaspekten in modernen, Cloud-basierten Systemen.

Insbesondere haben wir eine strukturierte Methode zur Rationalisierung sicherheitsrelevanter Konfigurationsentscheidungen entwickelt, die in der Praxis nur selten auf verbindlichen (d. h. quantitativen) Kriterien und Daten beruhen, sondern nur allzu oft aus dem Bauch heraus getroffen werden. Nach dieser Methode bewerten wir experimentell die Auswirkungen verschiedener Sicherheitskonfigurationen auf die Leistung von großen Datenbanksystemen (Cassandra, HBase usw.), die in Industrie und Forschung weit verbreitet sind. Durch diesen Ansatz konnten wir vielfältige Wechselwirkungen zwischen sicherheits- und performancebezogenen Merkmalen feststellen. So fanden wir beispielsweise massive Einbrüche in Sachen Durchsatz, wenn bestimmte Sicherheitsoptionen von HBase aktiviert wurden. Um das gleiche Maß an Sicherheit zu erreichen können auch andere Maßnahmen getroffen werden, die sich nicht auf die Leistung von HBase auswirken. Die Inkaufnahme der zusätzlichen Kosten für solche Maßnahmen kann die effizientere Option sein, da ein bestimmter Zieldurchsatz mit weniger HBase-Knoten erreicht werden kann.

Natürlich lassen sich aus solchen Erkenntnissen normative Aussagen über die konkrete Konfiguration und den Betrieb entsprechender Systeme treffen, die bestimmte Sicherheitsanforderungen erfüllen müssen (um z.B. regulatorischen Vorgaben zu genügen), gleichzeitig aber auch definierte Leistungsmerkmale aufweisen und nicht zuletzt möglichst kosteneffizient sein müssen.

PolyEnergyNet

Das Projekt PolyEnergyNet (PEN) beschreibt ein Forschungsvorhaben zur Verbesserung der Widerstandsfähigkeit von Stromnetzen auf Ebene von Mittel- und Niederspannung. Neben regelbaren erneuerbaren Energiequellen wird dafür auf Gas- und Fernwärmenetz zurückgegriffen. Das Bindeglied für diese Netze und ihre Steuerung ist das IKT-Netz. Aus dieser Verknüpfung der Netze ist der Name "PolyEnergyNet" begründet.

Zielsetzung

Das Stromnetz in Deutschland ist für eine zentrale Einspeisestruktur ausgelegt. Durch zunehmende dezentrale Erzeugung (insbesondere auf Niederspannungsebene) entstehen neue Herausforderungen. Eine dieser Herausforderungen ist die Gewährleistung und Verbesserung der Netzstabilität, welche im Fokus der Forschung von PEN steht.

Das Stromnetz, als primäres Netz, soll dazu resilient gemacht werden. Resilienz ist eine mehrdimensionale Eigenschaft, die beispielsweise Hochverfügbarkeit, Robustheit und Selbstschutz vor Fehlern und Angriffen umfasst. Durch die Kopplung des Stromnetzes mit den anderen Netzen, insbesondere dem IKT-Netz und der damit verbundenen Software- und Hardwarekomponenten, müssen diese ebenfalls in der Lage sein ein resilientes Stromnetz zu unterstützen. Ein übergeordnetes Ziel von PEN ist daher auch die Schaffung und Nutzung einer geeigneten Informationsbasis, die es selbst bei kritischen Netzzuständen erlaubt angemessen zu reagieren. Dies könnte beispielsweise die Aufrechterhaltung eines Notbetriebs innerhalb eines Ortsnetzes oder Straßenzugs sein oder Quarantäne für Teile des Ortsnetzes im Falle eines Angriffs, bis eine Wiedereingliederung in das Gesamtsystem möglich ist.

Ansatz

Um Netze und autonome Teilnetzabschnitte mit geeigneter Dynamik abbilden zu können wird im PolyEnergyNet ein sog. Holonmodell entwickelt. Ein Holon bezeichnet im wörtlichen Sinne den Teil eines Ganzen. Holone sind in ihrer Natur dynamisch und können sich beispielsweise zu größeren Einheiten zusammenschließen und wieder zerfallen. Ein Holon ist im PolyEnergyNet ein Teilnetzgebiet, welches zum aktuellen Zeitpunkt eine Energiebilanz von null aufweißt. Die kleinste Instanz eines Holons wäre beispielsweise ein Haushalt mit steuerbaren Komponenten, welcher sich komplett autonom versorgt.

Unter Hinzunahme der realen Bedingunen in einem Testgebiet werden Szenarien definiert, die beispielsweise die Reaktion von existierenden Holonen auf eine Übereinspeisung behandeln.
Basierend auf dieser modelltheoretischen Betrachtung der Netze werden Logik, Soft- und Hardwarekomponenten so wie Anforderungen an diese entwickelt und bewertet. Prototypische Implementierungen in inkrementellen Ausbaustufen werden sowohl im Modell als auch im realen Feldtest evaluiert.

Unsere Rolle im Projekt

Der Lehrstuhl ISE ist im Projekt PEN mit der Aufgabe betreut ein Datenmanagementsystem zu konzeptionieren, prototypisch zu implementieren und es entsprechend der Anforderungen zu evaluieren. Das Datenmangementsystem muss dabei mehreren funktionalen und nicht-funktionalen Anforderungen genügen, die sich aus dem speziellen Anwendungsfall ergeben. Es ist als Speicher- und Verteilschicht für sämtliche anfallenden Messdaten vorgesehen.
Einige Anforderungen und Schlüsselkonzepte für das Datenmangementsystem und dessen Evaluation sind

  • Verteilte Systemarchitektur für Hochverfügbarkeit
  • Einbindung heterogener Messdatenquellen (Sensorik)
  • Unterstützung von heterogenen Messdatensenken (Analyse, Logik)
  • Einheitliches, somänenspezifisches Datenformat
  • Unterstützung von Echtzeit-Anforderungen: geringe Latenz
  • Entwicklung geeigneter Metriken und Messverfahren für die kontextspezifische Bewertung des Datenmanagementsystems

Ergebnisse

Im Rahmen von PolyEnergyNet wurde an der TU Berlin RIFT (Resilient Infrastructure for Things) entwickelt. RIFT umfasst eine prototypische Implementierung.

RIFT besteht aus (i) einem hochverfügbaren, skalierbaren und resilienten Managementsystemen für Zeitreihendaten und (ii) aus einem Framework für die quantitative Messung von Qualitätseigenschaften von Managementsystemen für Zeitreihendaten

OpenSense