Bioverfahrenstechnik
Das Bild zeigt das Banner der Ringvorlesung Internet und Privatheit, die im Sommersemester 2019 und 2021 an der TU Berlin stattfand

Ziel der Veranstaltung

Wachstum und Entwicklung des Internets verändern unsere Welt und schaffen neue Möglichkeiten. Sie gehen aber auch einher mit weitreichenden Transfers privater Daten an eine schwer zu überblickende Datenwirtschaft und intransparente Institutionen. Die öffentliche und für alle Interessierten frei zugängliche Ringvorlesung „Internet und Privatheit“ möchte die Details dieser persönlichen Durchleuchtung erläutern und die Debatte auf eine solide Faktenbasis stellen. Für die Vorlesung konnten führende Forscher*innen, Expert*innen und Verantwortliche aus der Politik gewonnen werden.Die bisherigen Vorlesungen fanden immer montags im Sommersemester 2019 im Architekturgebäude am Ernst-Reuter-Platz und im Sommersemester 2021 als on-line-Videokonferenzen statt.

Die Ringvorlesung wurde von einer fakultätsübergreifenden Gruppe von Dozenten und Hochschullehrern der TU Berlin organisiert, nämlich Mario Birkholz, Frank Pallas, Florian Tschorsch und Franz-Josef Schmitt (seit 2020 an der MLU Halle-Wittenberge).

Die Durchführung der Veranstaltung wurde unterstützt von der Gewerkschaft Erziehung und Wissenschaft Berlin und dem Forum Privatheit.

Sommersemester 2021

Sommersemester 2021, ab 19.04.2021, jeden Montag 16.15-17.45 Uhr
Architekturgebäude der TU Berlin
, Straße des 17. Juni 152, Hörsaal A151

Vortrag #1 von Thilo Hagendorff

Thilo Hagendorff arbeitet als Wissenschaftler und Experte für angewandte Ethik an der Universität Tübingen. Er ist Autor mehrerer Sachbücher und Mitglied im Forum Privatheit, von dem das White Paper TRACKING erstellt und herausgegeben wurde. Es beschreibt die vielen bei der alltäglichen Internetnutzung eingesetzten Tracking-Methoden aus technischer Sicht und bewertet sie mit Bezug auf die gesetzlichen Vorgaben. Schließlich leitet es Empfehlungen für technische und rechtliche Weiterentwicklung auf dem Gebiet ab. 

In seinem Vortrag am 19.4.: Beschreibung und Bewertung neuer Tracking-Methoden

stellt Thilo Hagendorff die Studie vor und geht auf aktuelle Entwicklungen ein.

Interessante Links:

 

Vortrag #2 von Tobias Urban

Tobias Urban arbeitet als Wissenschaftlicher Mitarbeiter im Institut für Internet-Sicherheit – if(is) an der Westfälischen Hochschule in Gelsenkirchen und als Berater bei der secunet Security Networks AG im Bereich eHealth. Er ist Mitglied des Acceptable Ads Committee.

Der Vortrag von Tobias: Ich weiß, wo Du letzten Sommer gesurft hast - Privatheit und on-line Werbung

befasst sich mit dem Einfluss der Datenschutz-Grundverordnung (DSGVO) auf Online-Werbung. Dabei zeigt er auf, welchen technischen Einfluss die Verordnung im Web tatsächlich hatte und diskutiert den Nutzen, den die Nutzerschaft von der DSGVO hat am Beispiel der Umsetzung des „Auskunftsrecht der betroffenen Person“ (Art. 15 DSGVO).

Interessante Links:

Vortrag #3 von Wouter Lueks

Privacy-friendly digital proximity tracing

Digitale Kontaktverfolgungs-Apps wie die Corona-Warn-App benachrichtigen Personen, die sich in unmittelbarer Nähe zu einer Person aufgehalten haben, bei der COVID-19 diagnostiziert wurde. Solche Apps zielen darauf ab, die traditionelle Kontaktverfolgung zu ergänzen, indem sie Personen schneller benachrichtigen und/oder Personen benachrichtigen, die sonst nicht erreichbar wären.
Dieser Vortrag nimmt Sie mit auf einen Rundgang durch die digitale Näherungsverfolgung. Er erklärt, wie wir ein Protokoll entwickelt haben, das die Privatsphäre der Benutzer wahrt und Missbrauch verhindert. Dieses Protokoll bildet nun die Grundlage für die Kontaktverfolgung-App in 41 Ländern. Wir schauen uns zunächst das Basisprotokoll an, um zu erklären, wie Digitale Kontaktverfolgungs-Apps funktionieren, wie sie die Nähe bestimmen und wie sie wissen, dass sie den Benutzer benachrichtigen sollen.
Im zweiten Teil des Vortrags geht es um unsere Erfahrungen beim Versuch, ein solches digitales Kontaktverfolgungs-System einzusetzen. Es stellt sich heraus: Die Realität ist nicht so einfach, wie wir es uns wünschen. Es werden die neuen und unerwarteten Herausforderungen diskutiert, denen wir gegenüberstanden und dass sie neue Lösungen erfordern, um die Privatsphäre zu wahren.

Wouter Lueks ist Post-Doktorand im SPRING-Labor der EPFL, das von Carmela Troncoso geleitet wird. Er konzentriert sich auf das Entwerfen, Erstellen und Bereitstellen von datenschutzfreundlichen Systemen. Dazu kombiniert er angewandte Kryptographie, Modellierung von Datenschutz/Bedrohungen/Anforderungen und clevere Systemtechnik. Er hat an einem sicheren und datenschutzfreundlichen Dokumentensuchsystem für Journalisten gearbeitet und in jüngerer Zeit an der Entwicklung, Analyse und Implementierung von Systemen zur Verfolgung digitaler Nähe und Anwesenheit.

Vortrag #4 von Annette Hiller

Annette Hiller ist seit 2008 behördliche Datenschutzbeauftragte der TU Berlin und stellvertretende Leiterin des Referats für Angelegenheiten der Akademischen Selbstverwaltung (seit März kommissarische Leiterin). Sie ist Juristin und war vor der Aufnahme ihrer Arbeit an der TU Anwältin.
Sie hat mit ihrem Team die datenschutzrechtlichen Bewertungen der Videokonferenztools, die die Leitung für die Verwendung an der TU in die engere Wahl genommen hat, verfasst und die datenschutzgerechte Konfiguration der ausgewählten Tools begleitet.
Sie war Mitunterzeichnende des gemeinsamen Schreibens von Datenschutzbeauftragten und Personalräten Berliner Hochschulen an ihre Leitungen, in welchem der verstärkte Einsatz von Open Source Tools anregt wurde.
An den nach dem EuGH-Urteil Schrems II erforderlichen Vertragsverhandlungen mit den Betreibern der an der TU eingesetzten Videokonferenztools war sie maßgeblich beteiligt.

Insofern kann sie in ihrem Vortrag Datenschutzrechtliche Vorgaben für eLearning-Videoplattformen

nicht nur allgemein die Grundsätze des Datenschutzes erläutern und welche Prüfvoraussetzungen für Videoplattformen sich aus diesen ergeben, sondern kann „aus dem Nähkästchen“ plaudern, welchen Herausforderungen sich konkret die TU gegenübersah und wie diese überwunden wurden.

Vortrag #5 von Melanie Stilz und Tobias Fiebig

Pflichtfach Datenschutz - cyber4EDU stellt sich vor (Melanie Stilz)

Cyber4EDU ist ein Verein aus Eltern, Pädagog*innen und Nerds, der die Digitalisierung von Schulen im Spannungsfeld Datenschutz, Didaktik und Chancengleichheit unterstützt. Gerade der Umgang von Kindern und Jugendlichen mit Technik muss tracking- und analysefrei sein. Die DSGVO legt Bürger*innen das Recht auf die Kontrolle über ihre eigenen Daten in die Hand, stellt im Umkehrschluss aber auch neue Anforderungen an digitale Bildungsangebote. Gleichzeitig sind wir der Auffassung, dass im Bildungsbereich Gemeinwohl vor individueller Bereicherung gelten muss. Kinder und Jugendliche müssen den Umgang mit Technik und das Agieren im digitalen Raum lernen, statt ihnen den Umgang mit Produkten beizubringen. Daher helfen wir Schulen und anderen Bildungseinrichtungen beim Einsatz freier Software. Nicht zuletzt legen wir Wert darauf, dass Lernen im digitalen Raum mindestens genauso unterhaltsam und zielführend sein soll wie im Klassenraum. Und dass Open Source Software und Datenschutz dabei kein Hinderungsgrund sind. Digitaler Unterricht ist nicht zwangsweise besser oder schlechter - aber auf jeden Fall erfordert er andere didaktische Konzepte.

Dr. Melanie Stilz ist wissenschaftliche Mitarbeiterin am Fachgebiet Arbeitslehre/Technik und Partizipation der TU Berlin. Sie ist Mitgründerin und Vorständin bei Cyber4Edu.

Heads in the Cloud: Between Zoom et al. und BigBlueButton - Erfahrungen an der TU Delft (Tobias Fiebig)

Die Digitalisierung von Bildung und Forschung ist eines der zentralen Themen der Entwicklung des Bildungsstandortes Deutschland. Der öffentliche Diskurs betrachtet die Bundesrepublik dabei teils als zögerlich. Im Zuge dieser Digitalisierungsdebatte werden die Plattformen großer Cloud Anbieter (Microsoft Teams, Zoom) oft als probates Mittel zur weiteren Digitalisierung der Universitäten gepriesen, während Datenschutzbedenken als hinderlich gelten. In diesem Vortrag betrachten wir das Problemfeld der Digitalisierung und Cloud-Migration von Universitäten mit Hilfe empirischer Methoden. Durch die Nutzung von großflächigen Netzwerkmessungen sind wir in der Lage dazu ein schlüssiges Bild der Digitalisierung und Abhängigkeit von Cloudplattformen an deutschen Universitäten sowie international zu zeichnen. Dabei stellen wir fest, dass sich International zwei Gruppen bilden: Zum einen universitäre Systeme, welche bereits vor Jahren den Schritt hin in die Abhängigkeit von großen Cloud Providern (Microsoft/Google/Amazon) gegangen sind, und solche welche ihre akademische Unabhängigkeit bisher Großteils bewahren konnten. Eine interdisziplinäre Kontextualisierung unserer Ergebnisse unterstreicht dabei, dass sich Deutschland aktuell an einem Scheideweg befindet. Wir als Lehrende und Forschende müssen uns die Frage stellen ob wir—allen Gefahren zum Trotz—diesem internationalen Trend folgen wollen, oder eine führende Rolle darin einnehmen eine digitale Zukunft zu schaffen, welche die Freiheit von Forschung und Lehre erhält. Daher schließen wir diesen Vortrag mit einer Forschungsagenda für eine unabhängige Digitale Zukunft der Universität.

Dr.-Ing. Tobias Fiebig ist Assistenzprofessor im Bereich Informations- und Kommunikationstechnologie an der Fakultät für Technologie, Politik und Management der TU Delft. Er konzentriert sich auf die Identifizierung und Entschärfung von auf menschlichen Faktoren basierenden und vermeidbaren Sicherheitsproblemen in IT-Systemen, wie sie im „Internet der Dinge“ nur allzu häufig auftreten. Dazu nutzt er qualitative Forschungsmethoden, entwickelt aber auch neue Werkzeuge für die zukunftssichere Bewertung von Schwachstellen im Internet.

Vortrag #6 von Rainer Mühlhoff

Dieser Vortrag adressiert die neuen Herausforderungen für Datenschutz und Privatheit im Kontext prädiktiver Analytik und Künstlicher Intelligenz. Im Zentrum stehen die Anwendungen des maschinellen Lernens zur Vorhersage menschlichen Verhaltens oder zur Abschätzung sensibler Informationen anhand der Daten vieler anderer Menschen. Durch die Verwendung der auf diesen Techniken aufbauenden Scoring-, Klassifikations- oder automatischen Entscheidungsverfahren in ökonomischen, politischen, wohlfahrtsstaatlichen, medizinischen, edukativen, juristischen etc. Kontexten entstehen neue Formen sozialer Selektion und technologischer Machtausübung, die unsere Gesellschaften zunehmend prägen. Weil die Ermöglichung dieser Techniken zumeist auf die Fülle der bei großen Plattformunternehmen angehäuften Alltagsdaten (Nutzungsdaten, behaviorelle Daten, Social Media Daten, Ortsdaten, Verbindungsdaten, …) zurückzuführen ist, zu der wir alle durch die Benutzung vernetzter digitaler Medien beitragen, sind die sozialen Folgen prädiktiver KI unweigerlich mit einem kollektiven ethischen Problem verbunden: Es ist eben nicht folgenlos, seine Daten preiszugeben, wenn man für sich selbst meint, „nichts zu verbergen zu haben“.

Nach diesen Vorüberlegungen unterbreitet der Vortrag unter dem Titel „Predictive Privacy“ einen Vorschlag zur begrifflichen Neufassung von „Privatsphäre“, um einen effizienteren und kollektivistisch orientierten Datenschutz im Angesicht prädiktiver Analytik zu ermöglichen. Zum Schutz vor unerwünschten Effekten prädiktiver Analytik sind nicht nur explizit erhobene oder erfasste, sondern auch abgeschätzte Informationen als Gegenstand einer möglichen Verletzung von Privatsphäre anzusehen. Die Regulierung der Verwendungsmöglichkeiten abgeleiteter Informationen fällt dann genauso in den Bereich des Datenschutzes wie die der personenbezogenen Daten.

Rainer Mühlhoff ist Philosoph und Mathematiker am Excellence Cluster Science of Intelligence an der Technischen Universität Berlin. Seine Forschungsinteressen sind Ethik der Künstlichen Intelligenz sowie Datenschutz und kritische Philosophie im Kontext digitaler Medien. In verschiedenen interdisziplinären Projekten kooperiert er mit Informatiker*innen und untersucht das Zusammenspiel von Technologie, Macht und gesellschaftlicher Veränderung.

Vortrag #7 von Max von Grafenstein

Datenschutzrechtliche Hinweise und Einwilligungen erfüllen bis heute kaum ihren Zweck: Kaum jemand versteht, welche personenbezogenen Daten für welche Zwecke verarbeitet werden und welche Bedeutung das für einen selbst hat. Daran hat die neue EU Datenschutz-Grundverordnung (DSGVO) kaum etwas verändert. Einige regulatorische Innovationen weist die DSGVO allerdings auf, sie müssen nur richtig angewendet werden. Hierzu zählt allen voran der Ansatz Data Protection by Design, wonach Datenverarbeiter die rechtlichen Anforderungen der DSGVO – z.B. das Zweckbindungs- und Transparenzprinzip sowie die Betroffenenrechte – technisch und organisatorisch so implementieren müssen, dass sie die Grundrechte der Betroffenen effektiv vor den Risiken der Verarbeitung schützen. Auch sogenannte Privacy Icons gehören zu den Neuerungen. Damit diese Innovationen aber richtig angewendet werden können, galt es in den letzten Jahren einige grundlegende Forschungsfragen an der Schnittstelle von Recht, Technik, Wirtschaft und UX Design zu klären. Die Vorlesung gibt am Beispiel von Privacy Icons einen Ein- und Überblick zum aktuellen Stand der Forschung im Bereich Data Protection by Design.

Vortrag #8 von Bettina Berendt

Prof. Dr. Bettina Berendt ist Leiterin des Fachgebiets Internet und Gesellschaft an der Technischen Universität Berlin, Direktorin des Weizenbaum-Instituts und Gastprofessorin an der KU Leuven, Belgien. Vor ihrer Tätigkeit an der TU Berlin war sie Professorin in der Gruppe für Künstliche Intelligenz am Fachbereich Informatik der KU Leuven und Juniorprofessorin für Wirtschaftsinformatik an der Wirtschaftswissenschaftlichen Fakultät der HU Berlin. Ihre Forschung fokussiert auf Data Science und Critical Data Science, insbesondere Privatheit/Datenschutz, Diskriminierung und Fairness, und Ethik und KI, wobei textuelle und web-bezogene Daten im Vordergrund stehen.

Autonomie und Privatsphäre sind zentrale „europäische Werte“, die auch in den aktuellen Diskussionen über KI und Big Data regelmäßig genannt werden. In diesem Vortrag werden einige der Komplexitäten dieser Begriffe und ihrer Wechselbeziehungen untersucht. Insbesondere wird dargelegt, warum ein rein individualistischer Begriff von Autonomie und Privatsphäre vieles von dem, worum es uns geht, wenn von „Selbstbestimmung“ und „in Ruhe gelassen werden“ gesprochen wird, nicht erfasst. Anhand aktueller und klassischer Beispiele, insbesondere im Zusammenhang mit Technologie und Entscheidungen, werden alternative Vorstellungen von Autonomie und Privatsphäre diskutiert. Ziel ist es, Empfehlungen dafür zu erarbeiten, was wir in unseren verschiedenen Rollen tun können - als Bürger*in, Student*in, Wissenschaftler*in, Softwareentwickler*in, Manager*in, ...

Vortrag #9 von Seda Gürses

Protective Optimization Technologies - ein Vorschlag für Wettbewerb in der Welt statt Fairness im Algorithmus

Der Wandel hin zu serviceorientierten Architekturen (SOA) und agiler Entwicklung als vorherrschende Formen der Softwareerstellung hat weitreichende Auswirkungen und eine neue Art von Systemen hervorgebracht: Optimierungssysteme. Unternehmen können heute Systeme für „ideale“ Interaktionen und Umgebungen entwerfen, indem sie die Auswahl von Merkmalen, Verhaltensergebnissen, die Ressourcenzuweisung und die Planung im Einklang mit der Wachstumsstrategie eines Unternehmens optimieren. Trotz ihrer vielen Vorteile vernachlässigen solche Optimierungssysteme häufig die wirtschaftlichen, ethischen, moralischen, sozialen und politischen Auswirkungen, die sie auf die Bevölkerung und ihr Umfeld haben, wobei die damit verbundenen Kosten auf die beiden letzteren verlagert werden. Es wurden bereits einige Rahmenkonzepte entwickelt, die sich mit den Unzulänglichkeiten von Optimierungssystemen befassen (z. B. mit der algorithmischen Fairness), doch decken diese nur eine kleine Teilmenge dieser Probleme ab. Insbesondere konzentrieren sich die bestehenden Rahmenwerke auf die Inputs und Outputs von Algorithmen und übersehen dabei die Art und Weise, in der sich Schäden manifestieren, wenn Systeme mit der „Welt“ interagieren. Sie konzentrieren sich auf die Nutzer und nicht auf die Schäden und Risiken für die Bevölkerung, einschließlich der Nichtnutzer, und ihre Umgebung. Und, was am auffälligsten ist, diese Rahmenwerke beruhen auf der Zusammenarbeit von Dienstleistern. Dadurch wird die Abschwächung externer Effekte auf die Lösungen beschränkt, die von einem Dienstleister mit Anreizen umgesetzt werden, und es wird versäumt, Handlungsmöglichkeiten in Fällen zu untersuchen, in denen Dienstleister nicht kooperativ, absichtlich feindselig oder einfach unfähig sind.
Als Antwort auf dieses Problem haben Seda Gürses und Kolleg*innen „Protective Optimization Technologies“ eingeführt: Lösungen, die es Optimierungssubjekten ermöglichen, sich gegen die unerwünschten Folgen dieser Systeme zu wehren. Während des Vortrags wird Seda Gürses den Rahmen erörtern, der den Designraum von POTs formalisiert, und zeigen, wie er sich von anderen Designparadigmen in der Literatur unterscheidet. Sie wird zeigen, wie das Rahmenwerk Strategien erfassen kann, die in freier Wildbahn gegen reale Optimierungssysteme entwickelt wurden, und wie es dazu verwendet werden kann, Prototypen für POTs zu entwerfen, zu implementieren und zu evaluieren, die es Individuen und Kollektiven ermöglichen, sich vor Ungleichgewichten zu schützen, die durch den Egoismus von verkehrsübertreffenden Apps entstehen. Anhand dieses Beispiels werden auch die Funktionsweise von Optimierungssystemen und die Grenzen der Gegenoptimierung als Strategie aufgezeigt.

Seda Gürses ist außerordentliche Professorin in der Abteilung für Multi-Actor-Systeme an der TU Delft an der Fakultät für Technology Policy and Management (TPM) und Mitarbeiterin der COSIC-Gruppe an der Fakultät für Electrical Engineering (ESAT), KU Leuven. Zuvor erhielt sie das prestigeträchtige FWO-Postdoktorandenstipendium der Forschungsstiftung Flandern, das sie an der KU Leuven absolvierte, war wissenschaftliche Mitarbeiterin und Stipendiatin am Center for Information Technology and Policy an der Princeton University und Stipendiatin am Media, Culture and Communications Department an der NYU Steinhardt und am Information Law Institute an der NYU Law School. Ihre Arbeit konzentriert sich auf Technologien zur Verbesserung und zum Schutz der Privatsphäre (PETs und POTs), Privacy Engineering sowie auf Fragen zu Software-Infrastrukturen, sozialer Gerechtigkeit und politischer Ökonomie, die sich mit der Informatik überschneiden. Sie gehört derzeit zum Management-Team des TPM AI Lab, ist Mitglied des DP3T-Teams, das das datenschutzfreundliche Kontaktverfolgungsprotokoll entwickelte, das später von Google und Apple übernommen wurde, und ist Mitbegründerin des Institute for Technology in the Public Interest.

Vortrag #10 von Lena Rohrbach

Lena Rohrbachs Vortrag „Außer Kontrolle - mangelhafte EU-Vorgaben für den Export von digitalen Überwachungstechnologien“beschäftigt sich mit dem internationalen Handel mit Überwachungstechnologie. Lena Rohrbach erklärt die Rolle deutscher und europäischer Unternehmen bei der Unterdrückung von Menschenrechtsverteidiger*innen, Oppositionellen und Medien in Ländern, in denen Menschrechtsverletzungen an der Tagesordnung sind: Deutsche Trojaner, in Deutschland als „Staatstrojaner“ im Einsatz, überwachen die Oppositionsbewegung in der Türkei, europäische Gesichts- und Emotionserkennungstechnologie zur flächendeckenden Massenüberwachung wird nach China geliefert. Der Vortrag erklärt den globalen Kontext zunehmend schrumpfender Spielräume für die Zivilgesellschaft („Shrinking Spaces“) und setzt sich mit der Reform der Europäischen Dual Use Verordnung auseinander, die neue Regeln für den Handel mit Überwachungstechnologie aus der Europäischen Union schafft.

Lena Rohrbach ist Referentin für Wirtschaft, Rüstungsexportkontrolle und Menschenrechte im digitalen Zeitalter bei Amnesty International. Zuvor arbeitete sie für Campact und war Sprecherin der Piratenpartei. Sie hat Philosophie, Kulturwissenschaft und Geschichte in Berlin und International Human Rights Law an der University of Nottingham studiert.

Sommersemester 2019

Sommersemester 2019, ab 15.04.2019, jeden Montag 16.15-17.45 Uhr
Architekturgebäude der TU Berlin
, Straße des 17. Juni 152, Hörsaal A151

Aufzeichnungen: Die Mehrheit der Vorträge wurde aufgezeichnet und ist bei Youtube in der Playlist „Ringvorlesung: Internet und Privatheit“ verfügbar.

Vortrag #1 von Steffan Heuer

Steffan Heuer ist brand eins-Korrespondent in Kalifornien. Er schreibt über Innovationen und die menschlichen Seiten neuer Technologien. Gemeinsam mit Pernille Tranberg hat eine Gebrauchsanleitung zur digitalen Selbstverteidigung verfasst: das Buch „Mich kriegt Ihr nicht“ ist im Murmann Verlag erschienen und enthüllt viele Details des täglichen Datenpreisgabe an unbekannte Firmen und Institutionen. Im letzten „Werkzeug“-Kapitel finden sich sehr konkrete Tipps und Tricks, diese Datenübertragung transparent zu machen und dagegen vorzubeugen.

In seinem Vortrag am 15.4. spricht er über Verfolgungs-Wahn im Internet:

Wer sich online bewegt, ist nie allein. Im doppelten Sinne. Denn wenn wir das Leben um uns herum verfolgen wollen, nehmen wir in Kauf, dass wir selber auf Tipp und Click von (meist uns unbekannten) Dritten verfolgt werden. Eine normale, große Webseite ist durchschnittlich mit dem Tracking-Code von 75 Dritten gespickt.
Dieses Milliarden-Geschäft floriert weitgehend unkontrolliert. Während sich Firmen an Nutzerdaten bedienen und bei Problemen mauern, die Gesetzgeber nur langsam handeln und sich Länder über Standards streiten, sind Nutzer gefordert, selber zu handeln.
Digitale Selbstverteidigung bedeutet, entscheiden zu können, wer was wann und in welchem Kontext über mich weiß. DSD ist kein 100-prozentiger Schutz, aber sie kann uns helfen, schon heute datensparsamer zu sein. Sie besteht aus drei Komponenten: meine Daten zu verweigern, zu verschleiern und zu verschlüsseln.
Zum Glück gibt es immer mehr und immer leichter einzusetzende Werkzeuge, die diese drei Aufgaben erledigen. Vom Vorsichtsprinzip („Erst denken, dann posten oder hosten.”) über Blocker für den Browser, ein VPN und E2E verschlüsselte Kommunikation bis zu Cloud-Speichern mit Zero Knowledge Privacy.
Es ist ein Wettlauf, der ständigen Einsatz und Nachrüsten erfordert. Nicht zuletzt, weil das Internet of Everything (IoE) neue Sicherheitslücken aufreißt und Regierungen aggressiver werden, was Überwachung und Zugriff auf Daten angeht. Die überfällige Gegenbewegung muss von Nutzern und Firmen ausgehen, die sich einer neuen Daten-Ethik verpflichtet fühlen.

Vortrag #2 von Martin Tschirsich

Martin Tschirsich ist Informatiker und arbeitet in der IT-Sicherheitsfirma Modzero. Auf dem Chaos Communication Congress im Dezember 2018 in Leipzig hat er in einem Beitrag gravierende Sicherheitsmängel in der elektronischen Gesundheitsakte Vivy aufgedeckt. Die Mängel wurden aufgrund dieser Hinweise inzwischen behoben; der Vorgang zeigt aber deutlich die datenschutztechnischen Probleme, mit denen Patienten bei der bevorstehenden umfassenden Digitalisierung des Gesundheitssektors konfrontiert sind. In seinem (deutschsprachigen) Vortrag am 29.4. spricht er über:

All your Gesundheitsdaten belong to us

Gesundheitsapps gehören zu unserem Alltag. Vom einfachen Schrittzähler über die Gesundheitsakte bis hin  zur Smartphone-App für Herzschrittmacher sollen sie uns ein gesünderes und selbstbestimmteres Leben ermöglichen. Funktionieren kann das nur, wenn wir den Zugriff auf unsere Gesundheitsdaten erlauben. Je mehr Daten, desto besser.
Die Problem dabei: Die Sicherheit dieser umfassenden Datensammlungen ist nur in den wenigsten Fällen gewährleistet. Ein geübter Angreifer lässt sich weder von Gütesiegeln noch Zertifizierungen oder einer offiziellen Klassifizierung als Medizinprodukt aufhalten.
Warum aber ist das so? Und warum verbirgt sich dahinter eine Gefahr für uns alle? Diese Fragen werden im Vortrag anhand praktischer Beispiele beantwortet. Und es werden Ansätze vorgestellt, unter welchen Bedingungen wir unsere Gesundheitsdaten dennoch sicher nutzbar machen können.

Interessante Links:

Vortrag #3 von Max Schrems

Max Schrems ist ein österreichischer Jurist, Autor und Datenschutzaktivist. Er bewirkte bei Facebook die Herausgabe aller über ihn gespeicherten Daten und konnte mit seiner Klage vor dem Europäischen Gerichtshof das transnationale Safe-Harbor-Abkommen zwischen der EU und den USA beenden. Er ist Vorstandsvorsitzender der Initiative NOYB, die sich der Durchsetzung von Datenschutzrechten verschrieben hat. In seinem (deutschsprachigen) Vortrag am 6.5. spricht er über:

Warum ich Facebook (nicht) verlassen habe

Max Schrems gibt einen Überblick zum Thema Datenschutz am Beispiel eines der größten Online-Konzerne: Facebook. Welche Dimensionen der Privatheit gibt es? Welche verschiedenen Kulturen prallen im Netz aufeinander? Wie steht es um den Datenschutz bei Facebook und welche konkreten Datenschutzverletzungen sind schon seit 2011 nachweisbar? Warum können Großkonzerne weiterhin Gesetze brechen und wie kann man dem europäischen Grundrecht auf Datenschutz auch in der Praxis endlich zum Durchbruch verhelfen?
Der Vortrag ist als Video anzusehen auf dem YouTube-Kanal von TUB innoCampus.

Interessante Links:

Vortrag #4 von Katharina Nocun

Katharina Nocun ist Bürgerrechtlerin, Bloggerin und Autorin. Sie setzt sich seit mehr als 10 Jahren in ihrer Arbeit für eine Stärkung des Rechts auf Privatsphäre ein und ist an mehreren Verfassungsbeschwerden gegen staatliche Datensammlungen beteiligt.
Sie leitete in den vergangenen Jahren zahlreiche Kampagnen zu Bürgerrechts- und Netzthemen wie z.B. die Kampagne „Schutz für Edward Snowden in Deutschland“ der Bürgerbewegung Campact e. V.. In der Vergangenheit war sie u.a. für den Verbraucherzentrale Bundesverband (VZBV) und die Volksinitiative SH stoppt CETA tätig. Nocun war 2013 politische Geschäftsführerin der Piratenpartei Deutschland. Im April 2018 erschien ihr Buch "Die Daten, die ich rief: Wie wir unsere Freiheit an Großkonzerne verkaufen", welches die Problematik der Datensammlungen durch Unternehmen und Staat behandelt. Ihr monatlich erscheinender Podcast „Denkangebot“ behandelt Themen rund um die Digitalisierung.

In ihrem Vortrag am 13.5. spricht sie über: Die Daten, die ich rief – wie wir unsere Freiheit verkaufen.

Interessante Links:

Vortrag #5 von Markus Beckedahl

Markus Beckedahl ist deutscher netzpolitischer Aktivist und Journalist aus Berlin. Er wurde vor allem als Chefredakteur des von Netzpolitik.org bekannt, in dem Themen der Informationsgesellschaft behandelt werden. Netzpolitik.org ist einer der bekanntesten deutschsprachigen Blogs und wurde 2014 mit dem Grimme-Online-Award ausgezeichnet.

Markus Beckedahl hat sich auch einer Verfassungsbeschwerde der Gesellschaft für Freiheitsrechte e.V. beim Bundesverfassungsgericht in Karlsruhe angeschlossen, die sich gegen die Befugnis diverser Sicherheitsbehörden und Nachrichtendienste richtet, automatisiert biometrische Passbilder abzurufen. Biometrische Lichtbilder können z.B. der Gesichtserkennung oder dem Abgleich mit anderen Datenbanken dienen. 

In seinem Vortrag am 20.5. spricht er zu dem Thema: Staatliche Ausspähung im Netz

Interessante Links:

Vortrag #6 von Florian Tschorsch

Datenschutz aus dem Darknet: Was wir von Anonymisierungsnetzwerken lernen können

Vertraulichkeit, beispielsweise erreicht durch verschlüsselte Kommunikation, ist ein wichtiger Baustein um den Datenschutz im Internet durchzusetzen. Dieser allein ist jedoch nicht ausreichend; sogenannte Metadaten geben weiterhin persönliche Informationen preis. Der Vortrag adressiert diesen Schwachpunkt und stellt mit dem Tor-Netzwerk einen weiteren Baustein vor, welcher anonyme Internetkommunikation für die Öffentlichkeit zur Verfügung stellt. Insbesondere werden die technischen Vorteile sogenannter Onion Services dargestellt und diskutiert.

Interessante Links:

Vortrag #7 von Frank Pallas

Datenschutz und Technik über Anonymität und Sicherheit hinaus

Unter dem Begriff "Data Protection by Design and by Default" schreibt die europäische Datenschutzgrundverordnung vor, etablierte Prinzipien des Datenschutzes in die konkrete Technologiegestaltung einzubeziehen. Je nach Stand der Technik sind datenverarbeitende Stellen verpflichtet, "geeignete technische und organisatorische Maßnahmen" zu treffen, um "die Datenschutzgrundsätze [...] wirksam umzusetzen". In der Informatik existiert hierzu eine Vielzahl von Ansätzen, die sich jedoch meist nur auf die Prinzipien der Datenminimierung und der Datensicherheit beziehen. Weitere Prinzipien, für die die Forderung nach "Data Protection by Design and by Default" ebenfalls gilt - wie etwa die Prinzipien der Rechtmäßigkeit, der Zweckbindung oder der Transparenz - sind demgegenüber nahezu gar nicht präsent. Gleichzeitig ließe sich die praktische Wirksamkeit datenschutzrechtlicher Regelungen durch geeignete technische Verfahren deutlich verbessern und dadurch die Notwendigkeit zur "Digitalen Selbstverteidigung wegen unwirksamer rechtlicher Regeln" jedenfalls reduzieren. Der Vortrag stellt die erwähnten Prinzipien sowie das Konzept "Data Protection by Design" vor und diskutiert entsprechende technische Ansätze.

Interessante Links:

Vortrag #8 von Maja Smoltczyk

Ein Jahr Datenschutzgrundverordnung 

Seit dem 25. Mai 2018 gilt die Datenschutz-Grundverordnung der Europäischen Union unmittelbar und direkt in allen europäischen Mitgliedstaaten. Ein Jahr danach ist es Zeit für eine erste Zwischenbilanz: Was war der Grund für die Schaffung eines EU-weit einheitlichen Datenschutzgesetzes? Haben sich die Erwartungen an dieses Gesetz realisiert? Was hat sich für die Wirtschaft, die Bürgerinnen und Bürger sowie für die Aufsichtsbehörden geändert? Wer profitiert von dem Gesetz, wer hat die Arbeit? Und hat sich der Aufwand gelohnt?"

Maja Smoltczyk wurde im Januar 2016 zur Berliner Beauftragten für Datenschutz und Informationsfreiheit gewählt. Sie hat den Auftrag, die Einhaltung der datenschutzrechtlichen Vorschriften im Bundesland Berlin zu kontrollieren, in Fragen des Datenschutzes zu informieren, zu beraten und so unser Grundrecht auf informationelle Selbstbestimmung zu sichern.

Interessante Links:

Vortrag #9 von Ina Schieferdecker

Daten für die Öffentlichkeit – Daten als digitale Gemeingüter
Ina Schieferdecker, TU Berlin, Fraunhofer FOKUS, Weizenbaum-Institut

Im Digitalen Zeitalter werden die Kommunen mit den überzeugendsten digitalen Angeboten die Nase vorn haben, so wie zu Zeiten der Industriellen Revolution diejenigen Kommunen mit der besten Energieversorgung Innovationen attrahiert und eine florierende Entwicklung erfahren haben. Das ist jedenfalls einer der Schlüsse des jüngsten WBGU-Gutachtens "Unsere gemeinsame digitale Zukunft". Zudem setzt eine nachhaltige kommunale Entwicklung unter dem Einsatz digitaler Technologien voraus, dass Kommunen und Stadtgesellschaften ihre Gestaltungshoheit gegenüber der Digitalwirtschaft bewahren und eine eigene Technologie- und Datensouveränität aufbauen. Schon heute investiert eine wachsende Zahl von Städten und Gemeinden aktiv in dezentrale digitale urbane Plattformen, offene Architekturen und Gemeinwohlorientierung. Setzt sich dieser Trend durch, kann der digitale Wandel für eine inklusive, nachhaltige kommunale Entwicklung genutzt werden. Dabei sind in Anlehnung an Gemeingüter im Allgemeinen digitale Gemeingüter nach dem Verständnis des WBGU digitalisierte Daten-, Informations- und Wissensgüter, die als nicht-rivale Ressourcen im Gemeininteresse möglichst breit, öffentlich zugänglich gemacht werden. Sie sollten technisch über öffentlich-rechtliche IKT bereitgestellt werden und sind vor Ausschluss, Privatisierung und Unternutzung zu schützen. Dazu sind sowohl organisatorische, regulatorische als auch finanzielle Weichenstellungen wie Bereitstellungspflichten nötig, um Gemeinwohlorientierung mittels digitaler Gemeingüter auszuprägen.

Vortrag #10 von Maija Poikela

Location, Privacy and You

In der heutigen technologischen Welt werden mit Hilfe verschiedener Technologien enorme Mengen an persönlichen digitalen Daten gesammelt. Diese Daten werden entweder ausdrücklich von den Nutzern durch Beiträge in sozialen Medien, Suchvorgänge und andere Dienste zur Verfügung gestellt oder automatisch gesammelt, meist unbemerkt von den Nutzern. Standortdaten sind eine der sensibelsten Datenarten, da aus scheinbar anonymen Standortdaten eine Menge abgeleitet werden kann. In diesem Vortrag wird der Schutz der Standortdaten aus der Sicht der Nutzer*innen erörtert, und es wird eine kurze Einführung in die Forschung zu diesem Thema gegeben.

Maija Poikela promovierte 2019 am „Quality and Usability Lab“ der TU Berlin zum Thema wahrgenommene Privatsphäre in standortbasierten Systemen. Sie erwarb ihren Masterabschluss in Signalverarbeitung und Kommunikationstechnik an der Technischen Universität Tampere, Finnland, im Jahr 2010 mit dem Schwerpunkt auf subjektiver Qualität und der menschlichen Wahrnehmung von stereoskopischen Videos. Ihr Forschungsschwerpunkt ist die nutzbare Privatsphäre - die Schnittstelle zwischen menschlichen Nutzern und Technologie - und die Bewertung der Herausforderungen, die sich aus der Erfassung, Verarbeitung und Verbreitung persönlicher Daten ergeben. Sie führt empirische Forschung durch, in der sie die Auswirkungen verschiedener Faktoren wie z. B. des Kontexts auf die Wahrnehmung der Privatsphäre und auf das Verhalten in Bezug auf die Privatsphäre untersucht. Ab August 2019 arbeitet sie in der Abteilung Secure Systems Engineering am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) zu den Themen Usable Privacy und Security.