Informations- und Kommunikationsmanagement
Informations- und Kommunikationsmanagement

Abgeschlossene Projekte

In diesem Bereich finden Sie die abgeschlossenen Projekte des Fachbereichs IKM innerhalb der Forschungsthemen Cloud Computing, Green IT und nachhaltiges Informationsmangement, IT Service Management, Management im Bereich Computerspiele und Telekommunikationsmanagement.

Cloud Computing

Cloud Extender

Projekttitel: Cloud Extender - Cloud Business Model Generation

Partner:

  1. StoneOne AG
  2. TUB Institut für Telekommunikationssysteme, Fachgebiet für Komplexe und Verteilte IT-Systeme (CIT)


Laufzeit: 15 Monate
Beginn: 2011

Kurzbeschreibung:
Ziel des Projektes ist die Lösung der wesentlichen Aufgabenstellung, eine generische Komponenten-basierte Applikationsinfrastruktur in einer Cloud-Umgebung bedarfsorientiert zu expandieren und zu reduzieren. Die zentrale Idee liegt in der automatisierten Nutzung modernster Cloud-Technologie für nahezu beliebige Web-Anwendungen. Auf Basis einer Enterprise-Bus-Architektur und dazu passenden Komponenten können flexible Software-Systeme entworfen werden, die in diversen Systemumgebungen (lokal, in der Cloud, Hybrid) lauffähig sind und je nach aktueller Last dynamisch Ressourcen einsetzen bzw. beziehen.

Aufgabengebiete des IKM-Lehrstuhls u.a.:

  • Stand der Forschung, aktuelle Trends und Entwicklungen im Themenfeld des Cloud Computing.
  • Wirtschaftlichkeitsbetrachtung, Erarbeitung von Business Cases, Untersuchung finanzieller und nichtfinanzieller betriebswirtschaftlicher Auswirkungen.
  • Unterstützung bei der Marktrecherche und Evaluierung von bekannten Cloud Anbietern und technischen Anforderungen; Einbringen einer externen Perspektive bei konzeptionellen Entwicklungen und Umsetzung von Geschäftsmodellen; Geschäftsprozessmodellierung und -analyse.

TRESOR

Projekttitel:TRusted Ecosystem for Standardized and Open cloud-based Resources
Akronym: TRESOR



Partner:

  1. medisite Systemhaus GmbH,
  2. T-Systems International GmbH,
  3. Deutsches Herzzentrum Berlin,
  4. Paulinenhaus Krankenanstalt e.V.,
  5. UBIRY GmbH
  6. TUB SNET
     


Laufzeit: 36 Monate
Beginn: 2011

Kurzbeschreibung:
Das Vorhaben TRESOR hat den Aufbau eines Cloud-Ecosystems zum Ziel, welches exemplarisch für den Anwendungsbereich der Patientenversorgung im Gesundheitswesen umgesetzt wird. Bestandteile des Ecosystems sind eine neue, offene PaaS-Plattform sowie ein Cloud Broker. Erstere basiert mit USDL und OSGi auf etablierten Standards für Anwendungsdienste und ermöglicht damit die Interoperabilität zwischen verschiedenen Anbietern dieser Plattform bei der Cloud-Migration zur Vermeidung von Lock-In-Effekten.

Zudem wird die Wiederverwendung und Orchestrierung verschiedener Dienste unterstützt, was zu einer Kostenreduktion und schnelleren Umsetzung neuer Dienste führt. In dem so entstehenden Marktplatz von Cloud-Ressourcen übernimmt der Cloud Broker die Rolle eines vertrauenswürdigen Mediators, der diese Ressourcen unter Berücksichtigung der Unternehmensrichtlinien, gesetzlicher Vorschriften und Sicherheitstechnologien vermittelt, bündelt und zugänglich macht. Ferner integriert der Broker neue Konzepte zur geographischen Eingrenzung der Nutzung von Cloud-Diensten und assoziierter Daten.

Trusted Capital Cloud

Projekttitel:Trusted Capital Cloud
Akronym: TCC

Partner:

  1. StoneOne AG,
  2. Fraunhofer FOKUS,
  3. TU Berlin, Fachbiet IKM.
     


Laufzeit: 24 Monate
Beginn: Dezember 2012

Kurzbeschreibung:

Im Rahmen des TCC-Projektes entsteht eine Internet-Plattform, die einen Marktplatz von vertrauenswürdigen und bewährten Cloud-Services mit speziellem Fokus auf der Region Berlin-Brandenburg beinhaltet. Dieser Marktplatz wird typische kostenpflichtige Angebote im Bereich Infrastructure as a Service (IaaS), Platform as a Service (PaaS) sowie Software as a Service (SaaS) bündeln und in gut strukturierter Form im Internet der Dienste bereitstellen. Im Vordergrund stehen neben wirtschaftlichen Parametern vor allem auch sicherheitsrelevante und rechtliche Aspekte, da insbesondere im Kontext von Business-Applikationen auch geschäftskritische Daten in die Cloud verlagert werden sollen. Insbesondere dem Faktor „Trust“ soll durch zertifizierten Qualitätskriterien bzgl. der angebotenen Services Rechnung getragen werden.

Green IT und Nachhaltiges Informationsmanagement

Government Green Cloud Laboratory

Projekttitel: Government Green Cloud Laboratory (GGC-Lab)
Im Auftrag des Bundesministerium für Wirtschaft und Technologie (BMWi)
Förderprogramm IT2Green

Partner:

  1. regio iT aachen GmbH
  2. Dataport (Körperschaft des öffentlichen Rechts)
  3. ekom21 – KGRZ Hessen (Körperschaft des öffentlichen Rechts)
  4. Brandenburgischer IT-Dienstleister (ZIT-BB, Landesbetrieb des Landes Brandenburg)
  5. StoneOne AG
  6. TU Berlin (Fachgebiete IKM, EnSys, EVUR)


Laufzeit: 36 Monate
Beginn: Juni 2011

Kurzbeschreibung:
Im GGC-Lab werden auf Laborebene die Möglichkeiten des Cloud-Computing unter besonderer Beachtung der Energieeffizienz und der Senkung von Energiekosten untersucht. Betrachtet werden  typische Anwendungsszenarien der Landes- und Kommunalverwaltungen. Zu diesem Zweck wird erstmalig eine erweiterbare Cloud-Infrastruktur für die öffentliche Verwaltung durch technisch umgesetzt und erprobt. Dabei werden vier Produktiv-Rechenzentren bundesländerübergreifend zusammenarbeiten. Das Projekt kann durch den hohen Praxisbezug als Best-Practice-Lösung für eine Vielzahl von Anwendungsbereichen dienen. Die Ergebnisse aus dem Cloud-Labor sollen in verschiedene Bereiche einfließen, zum Beispiel in die …

  • Entwicklung einer "Nationalen Government Cloud",
  • Erschließung neuer Geschäftsmodelle,
  • Effizienzsteigerung von Weblösungen und
  • Integration der Verwaltungs-IT in Energie-Pools einfließen.


Aufgabengebiete des IKM-Lehrstuhls u.a.:

  • Entwicklung eines Modells zur Analyse von Cloud Computing Szenarien
  • Entwicklung eines Gestaltungsansatzes zur Konzeption von Cloud-basierten Anreizmodellen
  • Untersuchung der Rahmenbedingungen des öffentlichen Sektors für das Cloud Computing
  • Evaluierung geeigneter IT-Fachanwendungen für Cloud Computing Szenarien

Green IT Cockpit

Im Auftrag des Bundesministerium für Wirtschaft und Technologie (BMWi)

Projekttitel: "Green IT Cockpit - Organisationsweites, geschäftsprozessorientiertes Management-Cockpit für die Energieeffizienz von IKT"

Projektpartner:

  • TimeKontor AG
  • Axel Springer AG
  • Umweltbundesamt
  • Technische Universität Berlin, Fachgebiet Energieverfahrenstechnik und Umwandlungstechniken regenerativer Energien (EVUR), Prof. Dr. Berhendt

Laufzeit: 01.04.2011 – 31.03.2014 (36 Monate)

Zielsetzung und Lösung:
Ziel des Projekts ist die Erforschung und Entwicklung eines organisationsweiten, geschäftsprozessorientierten Management Cockpits für die Energieeffizienz von IKT (Green IT Cockpit). Basierend auf einem System von Key Performance Indikatoren (KPIs) und einem Performance Measurement System werden die Grundlagen für Operational Business Intelligence im Zusammenhang mit Green IT gelegt. Das zu entwickelnde Management Cockpit ermöglicht es, Organisationen Informationen zur Energieeffizienz der IKT aus verschiedenen Systemen (Rechenzentrum, Netzinfrastruktur und Peripherie wie Thin Clients bzw. Desktops, Drucker, Scanner usw.) bereichs- und geschäftsprozessorientiert zusammenzutragen und diese in einfacher, aggregierter und leicht interpretierbarer Form zur strategischen Planung und Verbesserung der IKT-bedingten Energieeffizienz der Organisation aufzubereiten. Die Visualisierung dieser Informationen durch das Cockpit erfolgt beispielsweise in Form von Ampeln, Skalen oder Tachometern, um gezielt und unmittelbar Verbesserungs- und  Optimierungspotenziale sichtbar zu machen.
Inhalt und Benutzeroberfläche des Cockpits bieten neben der Analyse relevanter Kennzahlen die Möglichkeit der detaillierten Untersuchung von Ursache-Wirkungs-Beziehungen. Zur Sicherstellung einer maximalen Übertragbarkeit der Ergebnisse werden KPIs und Benchmarks zu Energieeffizienz der IKT in Prozess- und Wertschöpfungsketten in Großunternehmen, KMUs und Verwaltung Gegenstand der Untersuchung sein.

IT Service Management

Towards real-time IT service management systems: In-situ analysis of events and incidents using SAP HANA

HPI Projekt des Monats
September 2013

Team

Prof. Dr. Rüdiger Zarnekow
Dipl.-Phys. Thorsten Pröhl

Research institution

Technische Universität Berlin
Fachgebiet Informations- und Kommunikationsmanagement

Project Description

Information technology service management (ITSM) is of increasing importance to IT organizations around the world, while information systems (IS) play a crucial function in private and public sector organizations. ITSM leads to a paradigm shift from a traditional IT organization to a customer-oriented IT service provider. The need to align the IT strategy with the business strategy, increasing the transparency of IT processes and quality while at the same time reducing the cost of IT services are some of the reasons why the information technology infrastructure library (ITIL), as the de-facto standard of IT service management, is introduced.

Key topics of ITIL are event and incident management, which describe how to manage the whole event and incident lifecycle. According to ITIL an event is defined as “a change of state that has significance for the management of an IT service […]”. The term is also used to mean an alert or notification created by any IT service, configuration item or monitoring tool. In addition, IT organizations are dealing with a huge number of incidents in their daily business. ITIL describes incidents as “an unplanned interruption to an IT service or reduction in the quality of an IT service”. Furthermore, major incidents are described as “the highest category of impact. A major incident results in significant disruption to the business.” Thus, the identification and resolution of these major incidents is a matter of special importance.

In the domain of ITSM, there are various fields of application for big data analyses and operation of in-memory technology. Real-time analysis of alerts, events, and incidents leads to proactive actions and processes. Incidents could be predicted, rapidly identified, and resolved in a timely manner. Moreover, serious issues, major incidents, could be recognized among a crowd of “normal” incidents. In order to recognize these kinds of incidents, text analysis techniques and dependency resolution of IT services can be applied. In contrast to the traditional resolution and visualization of configuration items (CIs), now the resolution of service dependencies is possible. The demand for this kind of analyses is increasing due to the complexity of services and data center structures. Cloud services and far-reaching value chains lead up to service dependency analyses. In addition, the ITIL IT security process (“information security management”) is encouraged by user behavior and data analyses. Near-term determination of capacity and availability issues support capacity and availability management. On top of this, in-memory technologies offer new possibilities regarding the observance of service level agreements (SLAs). Usually, SLA reports are generated once a month, now, real-time SLAs are conceivable, whereas predictive SLAs will support service managers as they are able to start corrective actions in a timely manner. Dashboards visualize both kinds of SLAs in an appealing way, therefore service managers don't have to wait for recurring reports.

This research project will focus on a subset of envisaged new ITSM topics. This project investigates the real-time identification possibilities of events and (major) incidents. Therefore, the authors will build up a “live” system based on a big database and develop respectively use pattern matching techniques in order to treat the event and (major) incident issues. Finally, the in-situ monitoring of SLAs will be performed.

The above figure presents a high level view of the underlying architecture. Within the project scope, we implement monitoring nodes based on Nagios or Icinga in order to monitor and control IT resources like databases, web and ftp servers. Furthermore, these nodes observe virtual machine (VM) hosts and single VMs. It is necessary to distinguish between agent-based and agentless monitoring; our nodes support both modes of operation. These monitoring systems collect event and sensor data from different sources in order to transfer these via VPN to our HANA instance, where a continual load into corresponding database tables happens. On the opposite side, a dashboard shows events, created incidents, and compliance of contracted SLAs. This proof of concept has different users, which have different needs for information and therefore various dashboard views.

Towards real-time IT service management systems: Development of a SLA dashboard using SAP HANA

Team

Prof. Dr. Ruediger Zarnekow
Dipl.-Phys. Thorsten Proehl

Research institution

Technische Universität Berlin Fachgebiet Informations- und Kommunikationsmanagement

Short Abstract

This research project is a follow-up for the previous one called “Towards real-time IT service management systems: In-situ analysis of events and incidents using SAP HANA”.

Information technology service management (ITSM) is of increasing importance to IT organizations around the world, while information systems (IS) play a crucial function in private and public sector organizations. ITSM leads to a paradigm shift from a traditional IT organization to a customer-oriented IT service provider. The need to align the IT strategy with the business strategy, increasing the transparency of IT processes and quality while at the same time reducing the cost of IT services are some of the reasons why the information technology infrastructure library (ITIL), as the de-facto standard of IT service management, is introduced.

Key topics of ITIL are event and incident management, which describe how to manage the whole event and incident lifecycle. According to ITIL an event is defined as “a change of state that has significance for the management of an IT service […]”. The term is also used to mean an alert or notification created by any IT service, configuration item or monitoring tool. In addition, IT organizations are dealing with a huge number of incidents in their daily business. ITIL describes incidents as “an unplanned interruption to an IT service or reduction in the quality of an IT service”. Furthermore, major incidents are described as “the highest category of impact. A major incident results in significant disruption to the business.” Thus, the identification and resolution of these major incidents is a matter of special importance.

Information about resolution time of incidents, number of incidents, number of major incidents, and number of occurring network events are some examples for figures that influence the compliance of service level agreements (SLAs). A service level agreement is defined as “an agreement between an IT service provider and a customer”. This agreement describes service level targets and responsibilities for each party. These figures are compared with the corresponding service level targets. Nowadays, most ITSM systems deliver SLA reports monthly. A real-time dashboard leads to proactive ITSM. Service level managers can react immediately to SLA breaches.

This research project will investigate illustration possibilities for events, incidents, and SLAs. Therefore, the authors will build up a “live” system based on a big event and incident database. The in-situ monitoring of service level agreements (SLAs) will be performed.

Management in Computerspielen

Gamification as a Service

Gamification as a Service

Im Auftrag des Bundesministerium für Bildung und Forschung.

Projektträger:

Deutsches Zentrum für Luft- und Raumfahrt

Projekttitel:

Gamification as a Service - Konzeptualisierung, Implementierung und Evaluation einer generischen Serviceplattform für Gamification in Geschäftsanwendungen

Projektpartner:

  • SAP AG, Dresden, Deutschland
  • Flowkey, Berlin, Deutschland

Laufzeit:

01.04.2013 – 31.12.2014  (21 Monate)

Zielsetzung & Lösung:

Gamification ist ein innovativer Ansatz, bei dem Spielemechanismen in nicht spielerischen Kontexten eingesetzt werden, um Engagement und Motivation von Nutzern im jeweiligen Kontext zu fördern. Aktuelle psychologische Studien zeigen, dass eine solche Anreicherung von IT-Systemen im Geschäftsumfeld zu einer stark höheren Adoption von Software führt, was sich wiederum positiv auf Effektivität und Effizienz der Mitarbeiter auswirken kann. Darüber hinaus kann Gamification zur Veränderung von Verhaltensweisen führen, ohne das extrinsische Anreize wie beispielsweise monetäre Belohnungen oder Strafen gesetzt werden müssen.

Jedoch ist das Einführen von Spielemechanismen in komplexe IT-Systeme mit hohen Kosten verbunden, wobei gleichzeitig der versprochene Nutzen nicht garantiert werden kann.  Ziel dieser Arbeit ist deshalb die Konstruktion einer generischen und nicht-invasiven Plattform, die es Unternehmen stark erleichtern soll, Spielemechanismen zur Motivationsförderung in bestehende Geschäftsanwendungen zu integrieren und das Design der Gamification über ihren Lebenszyklus hinweg flexibel zu begleiten.

Social Media Analytics & Big Data

Trustami

Projekttitel: Trustami 
Motto: Trust Goes Social

Offizielle Webseitewww.trustami.com 

Mittelgeber: EXIST - Gründerstipendium

Laufzeit: Start Juli 2014 (12 Monate), Spinn-Off ab Juli 2015


Kurzbeschreibung:
Trustami aggregiert verstreute Social Media Informationen und Bewertungen aus verschiedenen Kanälen, wie ebay, Airbnb und Facebook, unter Kontrolle des Nutzers und verifiziert diese für den Einsatz auf der Trustami Card. Der Nutzer erhält eine plattformunabhängige Reputation in Form eines digitalen Vertrauensausweis, die er im Internet nutzen kann um Vertrauen aufzubauen. 

Trustami garantiert dem Nutzer volle Datenkontrolle und ermöglicht ihm gesammelte Bewertungen und Referenzen überall im Internet zu nutzen. Hohe Datentransparenz und Nutzerfreundlichkeit runden das neue Vertrauensgefühl im Internet ab. Der im Hintergrund arbeitende Trustami Algorithmus dient dazu die vielfältigen als auch umfangreichen Informationen zu analysieren und zu verifizieren. 

>> direkt zur App <<

Studie: Vertrauen in der Share Economy

Digitale Plattformen und Geschäftsmodelle

Geschäftsmodelle und Kernfähigkeiten von Plattform Ökosystemen für Cloud Plattformen (PaaS)

Durch zunehmende Standardisierung und Modularisierung spricht man auch in der IT Industrie von einer „Servitization“, also einer Fokussierung auf Services statt Produkten. Traditionelle Software- und Hardware-Anbieter reagieren darauf mit einer Transformation Ihrer Geschäftsmodelle und zunehmender Serviceorientierung. Hierbei spielen Plattformen eine wichtige Rolle und stellen einen wesentlichen Lösungsansatz dar um der Digitalisierung Rechnung zu tragen. Insbesondere um zunehmend komplexer werdende Anforderung zu erfüllen. Unter Cloud Plattformen lassen sich die  Angebote von IaaS, PaaS oder SaaS, sowie Kombinationen daraus in Verbindung mit Management Services (z.B. Abrechnung, Marktplatz usw.) verstehen. Wesentlich ist die Verbindung mit einer software-basierten Plattform, die Entwickler plattformspezifischer Module (z.B. Add-ons) mit End-Kunden (B2B) oder anderen Entwicklern verbindet. Dabei übernimmt die Plattform die Rolle eines Intermediärs in einem zwei- oder mehrseitigen Markt. Als prominente Beispiele können hier die Salesforce.com App Cloud, Microsoft Azure oder die Google Cloud Platform genannt werden. Insbesondere die Bündelung von Leistungen und Fähigkeiten sowie die Erzeugung von (Innovations-) Wert wird Plattformökosystemen, als Vorteil gegenüber einzelner Unternehmen, zugeschrieben. Für Anwender bedeutet dies aber eine wesentliche Umstellung beim Bezug ihrer IT-Leistungen. Beispielweise können mehrere IT-Dienstleister in die Bereitstellung eines benötigten Services involviert sein.

Hieraus ergeben sich rechtliche, organisatorische und technische Fragestellungen, die das Forschungsprojekt adressiert. Unter anderem werden Wertschöpfungspotentiale einer Plattform gegenüber dem klassischem Wertschöpfungsnetzwerk untersucht. Im einfachsten Fall kann eine Anwendung auf der Plattform entwickelt werden, was aber bis hin zu komplexen Architekturen von aufeinander aufbauenden Microsystems führen kann, die über die Plattform als SaaS Lösung betrieben und verkauft wird. Das Innovationspotential dieser generativen Systeme durch deren Modularisierung und Wiederverwendbarkeit, sowie die synergetische gemeinschaftliche Wertschöpfung (Value Co-Creation) stehen hier im Zentrum der Analyse. Untersucht wird weiterhin welche Kernfähigkeiten (Capabilities) erforderlich sind und welchen Einfluss die Governance (z.B. Offenheit) auf das Geschäftsmodell haben.

Diffusion und Strategien technologischer Plattformen im Smart Home

Smart-Home-Technologien (SH) verbessern den Komfort, die Sicherheit, die Gesundheit, die Unterhaltung, die Bildung und die Kommunikation von Menschen in ihrer häuslichen Umgebung. Trotz vielversprechender Einsatzmöglichkeiten fristen SH-Technologien seit jeher ein Nischendasein. Demgegenüber sorgen jüngste technologische und gesellschaftliche Entwicklungen, wie intelligente Geräte und tragbare Sensorik, der Preisverfall mikroelektronischer Komponenten, die allgegenwärtige Datenverarbeitung und Breitbandverfügbarkeit sowie die Digitalisierung der Gesellschaft, für neue Euphorie am SH-Markt mit entsprechenden Wachstumsprognosen. Insbesondere domänen-übergreifenden Service-Plattformen wird das Potenzial zugeschrieben, den SH-Markt zu revolutionieren und zu einem Massenmarkt zu machen. In diesem Kontext treibt eine Vielzahl unterschiedlicher Organisationen, darunter Telekommunikationsunternehmen, IT-Ausrüster und -Dienstleister, Gerätehersteller, Hausautomatisierungsspezialisten, Industrieallianzen sowie Standardisierungsgremien die Entwicklung und Etablierung solcher Plattformen voran. Diejenigen Plattformen und die dahinter stehenden Organisationen, die sich in diesem Wettstreit um Vorherrschaft behaupten können, werden Innovation und Wettbewerb im Technologiefeld Smart Home nachhaltig prägen.

In diesem Zusammenhang zielt das Forschungsprojekt auf die Identifikation von Einflussfaktoren der Diffusion von SH-Plattformen sowie auf die Ableitung strategischer Handlungsempfehlungen. Neben verschiedenen wissenschaftlichen Theorien werden insbesondere Erklärungsansätze der Plattformökosystem-Forschung herangezogen, um die Entstehung dominanter Plattformen in konvergenten Technologiefeldern und mehrseitigen Märkten besser zu verstehen.

Hieraus ergeben sich rechtliche, organisatorische und technische Fragestellungen, die das Forschungsprojekt adressiert. Unter anderem werden Wertschöpfungspotentiale einer Plattform gegenüber dem klassischem Wertschöpfungsnetzwerk untersucht. Im einfachsten Fall kann eine Anwendung auf der Plattform entwickelt werden, was aber bis hin zu komplexen Architekturen von aufeinander aufbauenden Microsystems führen kann, die über die Plattform als SaaS Lösung betrieben und verkauft wird. Das Innovationspotential dieser generativen Systeme durch deren Modularisierung und Wiederverwendbarkeit, sowie die synergetische gemeinschaftliche Wertschöpfung (Value Co-Creation) stehen hier im Zentrum der Analyse. Untersucht wird weiterhin welche Kernfähigkeiten (Capabilities) erforderlich sind und welchen Einfluss die Governance (z.B. Offenheit) auf das Geschäftsmodell haben.

Knowledge Discovery und Recommender Systems im Lebensmittel-E-Commerce

Essen, Kochen und Ernährung zählen zu den zentralen Themen der gegenwärtigen Informationsgesellschaft. Als beliebteste Informationsquelle zu diesen Themen nimmt das Internet dabei eine wichtige Rolle ein. Eine Vielzahl an Content-Plattformen, wie Rezepteportale, Ernährungsberater, Lifestyle-Magazine, Social Communities, Essen-Blogs u.v.m., stellen diesbezüglich unterschiedlichste Informationen zur Verfügung. Gleichzeitig bilden die Ausgaben für Lebensmittel in Höhe von ca. 160 Mrd. EUR in 2015 den mit Abstand größten Konsumgütermarkt in Deutschland. Allerdings sieht sich der Online-Handel von Lebensmitteln im Vergleich zu anderen Konsumgütersegmenten noch großen Barrieren gegenüber. Insbesondere sind Verbesserungen im Sortiment, Bestellprozess und der Logistik erforderlich, um die Potenziale des Lebensmittel-E-Commerce zu heben.

In diesem Kontext beschäftigt sich das Forschungsprojekt mit der Frage, wie die im Internet vorhandenen Informationen in automatisierter Weise genutzt werden können, um anwendungsspezifisches Wissen für den Lebensmittel-Online-Handel zu generieren. Das Forschungsprojekt verfolgt diesbezüglich einen anwendungsorientierten Ansatz, mit dem Ziel auf Basis von Knowledge-Discovery-Verfahren IT-gestützte Empfehlungsdienste zu entwickeln und deren Problemlösungspotenzial hinsichtlich konkreter Herausforderungen zu evaluieren. Dieser Ansatz wird in Form von mehreren Software-Projekten umgesetzt, in denen die Problemlösungspotenziale konkreter Empfehlungsdienste empirisch untersucht werden sollen.

In diesem Zusammenhang zielt das Forschungsprojekt auf die Identifikation von Einflussfaktoren der Diffusion von SH-Plattformen sowie auf die Ableitung strategischer Handlungsempfehlungen. Neben verschiedenen wissenschaftlichen Theorien werden insbesondere Erklärungsansätze der Plattformökosystem-Forschung herangezogen, um die Entstehung dominanter Plattformen in konvergenten Technologiefeldern und mehrseitigen Märkten besser zu verstehen.

Hieraus ergeben sich rechtliche, organisatorische und technische Fragestellungen, die das Forschungsprojekt adressiert. Unter anderem werden Wertschöpfungspotentiale einer Plattform gegenüber dem klassischem Wertschöpfungsnetzwerk untersucht. Im einfachsten Fall kann eine Anwendung auf der Plattform entwickelt werden, was aber bis hin zu komplexen Architekturen von aufeinander aufbauenden Microsystems führen kann, die über die Plattform als SaaS Lösung betrieben und verkauft wird. Das Innovationspotential dieser generativen Systeme durch deren Modularisierung und Wiederverwendbarkeit, sowie die synergetische gemeinschaftliche Wertschöpfung (Value Co-Creation) stehen hier im Zentrum der Analyse. Untersucht wird weiterhin welche Kernfähigkeiten (Capabilities) erforderlich sind und welchen Einfluss die Governance (z.B. Offenheit) auf das Geschäftsmodell haben.

Management Netzbasierter Telekommunikationsdienste

M2M-Mobilfunk-Plattform: Geschäftsmodellierung

Projekttitel: M2M-Mobilfunk-Plattform

Partner:

  1. Telekom, T-Labs


Laufzeit: 12 Monate
Beginn: 2009  

Kurzbeschreibung:
Ziel des Projektes ist die Analyse und Darstellung von Geschäftsprozessen im Machine to Machine (M2M) Umfeld. Hierzu werden Marktdaten ausgewertet und mit entsprechenden Methodiken analysiert. In einem ersten Schritt werden für elf vorliegende Geschäftssegmente im mobilen M2M Bereich über sechs T-Mobile Länder (Deutschland, UK, Niederlande, Österreich, Tschechien, Polen) Marktdaten erhoben und analysiert. Im zweiten Schritt werden darauf Geschäftsmodelle abgeleitet und Marktstrategien bzw. Empfehlungen entwickelt.  

Aufgabengebiete des IKM-Lehrstuhls u.a.:

  • Marktanalyse
  • Geschäftsmodellentwicklung

Partnering Models for Broadband Access

Project title: Partnering Models for Broadband Access

Partner:

  1. Deutsche Telekom Laboratories


Project Length: 2 years
Beginn: 2011

Project summary:
The goal of this project is the development of a framework for the telecommunication industry which allows to assess a variety of future value chains and business models with respect to their suitability for a cooperative or competitive strategy. The research takes into account the horizontal and vertical desintegration in telecommunication value chains and investigates the role of cooperation at  horizontal and vertical interfaces of the value layers. In a qualitative assessment phase a strategic analysis of cooperation and competition models is conducted with respect to fixed access. In a quantitative analysis phase techno-economic forecasting methods such as diffusion models, option pricing as well as agent-based computational economics (ACE) are applied to determine market and industry dynamics (e.g. market share, correlation analysis).

Quality of Service (QoS) Business Models

QoS is a means to guarantee the efficiency of future telecommunication networks but also as a driver for business model innovation. In this project, the impact of QoS on future telecommunications business models was discussed. QoS driven business models were analyzed with qualitative and quantitative research methodologies.

Carrier Prospects in the CDN Market

The commercial structure of the Internet is changing. Content delivery networks are becoming potent players in the bandwidth market and are responsible for an ever growing fraction of total Internet traffic. In this project we analyzed the potential of content delivery as a value added service for ISPs to escape the “dumb pipe” scenario.

Prospects for QoS based Internet Services

In the scope of this project, current limitations and potential risks of internet-based data transport were analyzed. Conclusions regarding the business potential of differentiated data transport for internet-based ICT services were drawn.

Enabling Services

The technology-driven convergence of the industries of information technology, telecommunications and media has heavily influenced the development of value-creation structures and business models for the production of ICT services. Formerly vertically integrated telecommunication network operators act now as suppliers of other ICT service providers and are confronted with the challenge of selling their products at different market levels. Here, well-known modular service concepts from the service research area and the IT domain can be applied. On service delivery platforms, ICT service modules, so- called enabling services, are provided for development support. In this project, a conceptualization of enabling services was developed and a procedure for the specification of enabling services was defined.

Analysis of future perspectives of quality in the internet based on Quality-of-Service business models

The transport of data in the Internet, referred to as best-effort-transport, is inefficient from an economical perspective and impedes the emergence of new business models in the internet. A reasonable approach is the enhancement of the best-effort-model by “quality bundles”, consisting of premium content and appropriate QoS-based transport. For the realization of such business models, the billing for such service bundles is recommended to be carried out by the content providers.