Bioverfahrenstechnik
Das Bild zeigt das Banner der Ringvorlesung Internet und Privatheit, die im Sommersemester 2019 und 2021 an der TU Berlin stattfand

Ziel der Veranstaltung

Wachstum und Entwicklung des Internets verändern unsere Welt und schaffen neue Möglichkeiten. Sie gehen aber auch einher mit weitreichenden Transfers privater Daten an eine schwer zu überblickende Datenwirtschaft und intransparente Institutionen. Die öffentliche und für alle Interessierten frei zugängliche Ringvorlesung „Internet und Privatheit“ möchte die Details dieser persönlichen Durchleuchtung erläutern und die Debatte auf eine solide Faktenbasis stellen. Für die Vorlesung konnten führende Forscher*innen, Expert*innen und Verantwortliche aus der Politik gewonnen werden.Die bisherigen Vorlesungen fanden immer montags im Sommersemester 2019 im Architekturgebäude am Ernst-Reuter-Platz und im Sommersemester 2021 als on-line-Videokonferenzen statt.

Die Ringvorlesung wurde von einer fakultätsübergreifenden Gruppe von Dozenten und Hochschullehrern der TU Berlin organisiert, nämlich Mario Birkholz, Frank Pallas, Florian Tschorsch und Franz-Josef Schmitt (seit 2020 an der MLU Halle-Wittenberge).

Die Durchführung der Veranstaltung wurde unterstützt von der Gewerkschaft Erziehung und Wissenschaft Berlin und dem Forum Privatheit.

Sommersemester 2019

Sommersemester 2019, ab 15.04.2019, jeden Montag 16.15-17.45 Uhr
Architekturgebäude der TU Berlin
, Straße des 17. Juni 152, Hörsaal A151

Aufzeichnungen: Die Mehrheit der Vorträge wurde aufgezeichnet und ist über Youtube hier und über das alternative Youtube-Frontend invidio.us hier verfügbar.

Vortrag #1 von Steffan Heuer

Steffan Heuer ist brand eins-Korrespondent in Kalifornien. Er schreibt über Innovationen und die menschlichen Seiten neuer Technologien. Gemeinsam mit Pernille Tranberg hat eine Gebrauchsanleitung zur digitalen Selbstverteidigung verfasst: das Buch „Mich kriegt Ihr nicht“ ist im Murmann Verlag erschienen und enthüllt viele Details des täglichen Datenpreisgabe an unbekannte Firmen und Institutionen. Im letzten „Werkzeug“-Kapitel finden sich sehr konkrete Tipps und Tricks, diese Datenübertragung transparent zu machen und dagegen vorzubeugen.

In seinem Vortrag am 15.4. spricht er über Verfolgungs-Wahn im Internet

Wer sich online bewegt, ist nie allein. Im doppelten Sinne. Denn wenn wir das Leben um uns herum verfolgen wollen, nehmen wir in Kauf, dass wir selber auf Tipp und Click von (meist uns unbekannten) Dritten verfolgt werden. Eine normale, große Webseite ist durchschnittlich mit dem Tracking-Code von 75 Dritten gespickt.

Dieses Milliarden-Geschäft floriert weitgehend unkontrolliert. Während sich Firmen an Nutzerdaten bedienen und bei Problemen mauern, die Gesetzgeber nur langsam handeln und sich Länder über Standards streiten, sind Nutzer gefordert, selber zu handeln.

Digitale Selbstverteidigung bedeutet, entscheiden zu können, wer was wann und in welchem Kontext über mich weiß. DSD ist kein 100-prozentiger Schutz, aber sie kann uns helfen, schon heute datensparsamer zu sein. Sie besteht aus drei Komponenten: meine Daten zu verweigern, zu verschleiern und zu verschlüsseln.

Zum Glück gibt es immer mehr und immer leichter einzusetzende Werkzeuge, die diese drei Aufgaben erledigen. Vom Vorsichtsprinzip (“Erst denken, dann posten oder hosten.”) über Blocker für den Browser, ein VPN und E2E verschlüsselte Kommunikation bis zu Cloud-Speichern mit Zero Knowledge Privacy.

Es ist ein Wettlauf, der ständigen Einsatz und Nachrüsten erfordert. Nicht zuletzt, weil das Internet of Everything (IoE) neue Sicherheitslücken aufreißt und Regierungen aggressiver werden, was Überwachung und Zugriff auf Daten angeht. Die überfällige Gegenbewegung muss von Nutzern und Firmen ausgehen, die sich einer neuen Daten-Ethik verpflichtet fühlen.

Vortrag #2 von Martin Tschirsich

Martin Tschirsich ist Informatiker und arbeitet in der IT-Sicherheitsfirma Modzero. Auf dem Chaos Communication Congress im Dezember 2018 in Leipzig hat er in einem Beitrag gravierende Sicherheitsmängel in der elektronischen Gesundheitsakte Vivy aufgedeckt. Die Mängel wurden aufgrund dieser Hinweise inzwischen behoben; der Vorgang zeigt aber deutlich die datenschutztechnischen Probleme, mit denen Patienten bei der bevorstehenden umfassenden Digitalisierung des Gesundheitssektors konfrontiert sind. In seinem (deutschsprachigen) Vortrag am 29.4. spricht er über

All your Gesundheitsdaten belong to us

Gesundheitsapps gehören zu unserem Alltag. Vom einfachen Schrittzähler über die Gesundheitsakte bis hin  zur Smartphone-App für Herzschrittmacher sollen sie uns ein gesünderes und selbstbestimmteres Leben ermöglichen. Funktionieren kann das nur, wenn wir den Zugriff auf unsere Gesundheitsdaten erlauben. Je mehr Daten, desto besser.
Die Problem dabei: Die Sicherheit dieser umfassenden Datensammlungen ist nur in den wenigsten Fällen gewährleistet. Ein geübter Angreifer lässt sich weder von Gütesiegeln noch Zertifizierungen oder einer offiziellen Klassifizierung als Medizinprodukt aufhalten.
Warum aber ist das so? Und warum verbirgt sich dahinter eine Gefahr für uns alle? Diese Fragen werden im Vortrag anhand praktischer Beispiele beantwortet. Und es werden Ansätze vorgestellt, unter welchen Bedingungen wir unsere Gesundheitsdaten dennoch sicher nutzbar machen können.

Interessante Links zu der Thematik:

www.heise.de/select/ct/2019/3/1549009683041077

mobilsicher.de/hintergrund/gesundheits-apps-nutzen-datenschutz

mobilsicher.de/ratgeber/schnueffel-module-in-apps-das-koennen-sie-tun

www.f-droid.org/

search.f-droid.org/?q=fit&lang=de

Aufzeichnung des Vortrags auf invidio.us.

Vortrag #3 von Max Schrems

Max Schrems ist ein österreichischer Jurist, Autor und Datenschutzaktivist. Er bewirkte bei Facebook die Herausgabe aller über ihn gespeicherten Daten und konnte mit seiner Klage vor dem Europäischen Gerichtshof das transnationale Safe-Harbor-Abkommen zwischen der EU und den USA beenden. Er ist Vorstandsvorsitzender der Initiative NOYB, die sich der Durchsetzung von Datenschutzrechten verschrieben hat. In seinem (deutschsprachigen) Vortrag am 6.5. spricht er über 

Warum ich Facebook (nicht) verlassen habe

Max Schrems gibt einen Überblick zum Thema Datenschutz – am Beispiel eines der größten Online-Konzerne: Facebook. Welche Dimensionen der Privatheit gibt es? Welche verschiedenen Kulturen prallen im Netz aufeinander? Wie steht es um den Datenschutz bei Facebook und welche konkreten Datenschutzverletzungen sind schon seit 2011 nachweisbar? Warum können Großkonzerne weiterhin Gesetze brechen und wie kann man dem europäischen Grundrecht auf Datenschutz auch in der Praxis endlich zum Durchbruch verhelfen?

Der Vortrag ist als Video anzusehen auf dem YouTube-Kanal von TUB innoCampus

Interessante Links

Wikipedia zu Facebook, Friendica und Diaspora

Comparison of distributed social networking

Spionage-Blocker für PC und Smartphone: Ghostery, PrivacyBadger, Blokada

Cliqz schreibt an Facebook,  Gesellschaft für Informatik schließt FB-Präsens

In dieser Woche findet auch die re:publica19 statt.

Aufzeichnung via invidio.us.

Vortrag #4 von Katharina Nocun

Katharina Nocun ist Bürgerrechtlerin, Bloggerin und Autorin. Sie setzt sich seit mehr als 10 Jahren in iherer Arbeit für eine Stärkung des Rechts auf Privatsphäre ein und ist an mehreren Verfassungsbeschwerden gegen staatliche Datensammlungen beteiligt.

Sie leitete in den vergangenen Jahren zahlreiche Kampagnen zu Bürgerrechts- und Netzthemen wie z.B. die Kampagne „Schutz für Edward Snowden in Deutschland“ der Bürgerbewegung Campact e. V.. In der Vergangenheit war sie u.a. für den Verbraucherzentrale Bundesverband (VZBV) und die Volksinitiative SH stoppt CETA tätig. Nocun war 2013
politische Geschäftsführerin der Piratenpartei Deutschland. Im April 2018 erschien ihr Buch "Die Daten, die ich rief: Wie wir unsere Freiheit an Großkonzerne verkaufen", welches die Problematik der Datensammlungen durch Unternehmen und Staat behandelt. Ihr monatlich erscheinender Podcast "Denkangebot" behandelt Themen rund um die Digitalisierung.

 

In ihrem Vortrag am 13.5. spricht sie über: Die Daten, die ich rief – wie wir unsere Freiheit verkaufen

Links: https://www.kattascha.de

https://www.denkangebot.org

https://de.wikipedia.org/wiki/Datenschutz-Grundverordnung

https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:02016R0679-20160504

https://de.wikipedia.org/wiki/Big_Five (Psychologie)

Aufzeichnung via invidio.us.

Vortrag #5 von Markus Beckedahl

Markus Beckedahl ist deutscher netzpolitischer Aktivist und Journalist aus Berlin. Er wurde vor allem als Chefredakteur des von Netzpolitik.org bekannt, in dem Themen der Informationsgesellschaft behandelt werden. Netzpolitik.org ist einer der bekanntesten deutschsprachigen Blogs und wurde 2014 mit dem Grimme-Online-Award ausgezeichnet.

Markus Beckedahl hat sich auch einer Verfassungsbeschwerde der Gesellschaft für Freiheitsrechte e.V. beim Bundesverfassungsgericht in Karlsruhe angeschlossen, die sich gegen die Befugnis diverser Sicherheitsbehörden und Nachrichtendienste richtet, automatisiert biometrische Passbilder abzurufen. Biometrische Lichtbilder können z.B. der Gesichtserkennung oder dem Abgleich mit anderen Datenbanken dienen. 

In seinem Vortrag am 20.5. spricht er zu dem Thema: Staatliche Ausspähung im Netz

Interessante Links: netzpolitik.org   und    Re:publica

Charta der digitalen Grundrechte der Europäischen Union

Markus Beckedahl, Andre Meister (Hrsg.): Überwachtes Netz: Edward Snowden und der größte Überwachungsskandal der Geschichte.

Vortrag #6 von Florian Tschorsch

Datenschutz aus dem Darknet: Was wir von Anonymisierungsnetzwerken lernen können

Vertraulichkeit, beispielsweise erreicht durch verschlüsselte Kommunikation, ist ein wichtiger Baustein um den Datenschutz im Internet durchzusetzen. Dieser allein ist jedoch nicht ausreichend; sogenannte Metadaten geben weiterhin persönliche Informationen preis. Der Vortrag adressiert diesen Schwachpunkt und stellt mit dem Tor-Netzwerk einen weiteren Baustein vor, welcher anonyme Internetkommunikation für die Öffentlichkeit zur Verfügung stellt. Insbesondere werden die technischen Vorteile sogenannter Onion Services dargestellt und diskutiert.

Links: https://www.torproject.org

https://metrics.torproject.org

https://www.eff.org/de/pages/tor-and-https

https://github.com/alecmuffett/real-world-onion-sites

Aufzeichnung via invidio.us.

Vortrag #7 von Frank Pallas

Datenschutz und Technik über Anonymität und Sicherheit hinaus

Unter dem Begriff "Data Protection by Design and by Default" schreibt die europäische Datenschutzgrundverordnung vor, etablierte Prinzipien des Datenschutzes in die konkrete Technologiegestaltung einzubeziehen. Je nach Stand der Technik sind datenverarbeitende Stellen verpflichtet, "geeignete technische und organisatorische Maßnahmen" zu treffen, um "die Datenschutzgrundsätze [...] wirksam umzusetzen". In der Informatik existiert hierzu eine Vielzahl von Ansätzen, die sich jedoch meist nur auf die Prinzipien der Datenminimierung und der Datensicherheit beziehen. Weitere Prinzipien, für die die Forderung nach "Data Protection by Design and by Default" ebenfalls gilt - wie etwa die Prinzipien der Rechtmäßigkeit, der Zweckbindung oder der Transparenz - sind demgegenüber nahezu gar nicht präsent. Gleichzeitig ließe sich die praktische Wirksamkeit datenschutzrechtlicher Regelungen durch geeignete technische Verfahren deutlich verbessern und dadurch die Notwendigkeit zur "Digitalen Selbstverteidigung wegen unwirksamer rechtlicher Regeln" jedenfalls reduzieren. Der Vortrag stellt die erwähnten Prinzipien sowie das Konzept "Data Protection by Design" vor und diskutiert entsprechende technische Ansätze.

Interessante Links:

F. Pallas (2018). Datenschutz in Zeiten alles durchdringender Vernetzung

Facebook-Tracker auf deutschen Medienseiten

Tracker erkennen und abstellen

 

Aufzeichnung via invidio.us.

Vortrag #8 von Maja Smoltczyk

Ein Jahr Datenschutzgrundverordnung 

Seit dem 25. Mai 2018 gilt die Datenschutz-Grundverordnung der Europäischen Union unmittelbar und direkt in allen europäischen Mitgliedstaaten. Ein Jahr danach ist es Zeit für eine erste Zwischenbilanz: Was war der Grund für die Schaffung eines EU-weit einheitlichen Datenschutzgesetzes? Haben sich die Erwartungen an dieses Gesetz realisiert? Was hat sich für die Wirtschaft, die Bürgerinnen und Bürger sowie für die Aufsichtsbehörden geändert? Wer profitiert von dem Gesetz, wer hat die Arbeit? Und hat sich der Aufwand gelohnt?"

Maja Smoltczyk wurde im Januar 2016 zur Berliner Beauftragten für Datenschutz und Informationsfreiheit gewählt. Sie hat den Auftrag, die Einhaltung der datenschutzrechtlichen Vorschriften im Bundesland Berlin zu kontrollieren, in Fragen des Datenschutzes zu informieren, zu beraten und so unser Grundrecht auf informationelle Selbstbestimmung zu sichern.

Interessante Links:

Kompa c't: Ein Jahr DSGVO
Fragebogen: gespeicherte Daten abfragen
Generator zur automatisierten Datenabfrage

Vortrag #9 von Ina Schieferdecker

Daten für die Öffentlichkeit – Daten als digitale Gemeingüter
Ina Schieferdecker, TU Berlin, Fraunhofer FOKUS, Weizenbaum-Institut

Im Digitalen Zeitalter werden die Kommunen mit den überzeugendsten digitalen Angeboten die Nase vorn haben, so wie zu Zeiten der Industriellen Revolution diejenigen Kommunen mit der besten Energieversorgung Innovationen attrahiert und eine florierende Entwicklung erfahren haben. Das ist jedenfalls einer der Schlüsse des jüngsten WBGU-Gutachtens "Unsere gemeinsame digitale Zukunft". Zudem setzt eine nachhaltige kommunale Entwicklung unter dem Einsatz digitaler Technologien voraus, dass Kommunen und Stadtgesellschaften ihre Gestaltungshoheit gegenüber der Digitalwirtschaft bewahren und eine eigene Technologie- und Datensouveränität aufbauen. Schon heute investiert eine wachsende Zahl von Städten und Gemeinden aktiv in dezentrale digitale urbane Plattformen, offene Architekturen und Gemeinwohlorientierung. Setzt sich dieser Trend durch, kann der digitale Wandel für eine inklusive, nachhaltige kommunale Entwicklung genutzt werden. Dabei sind in Anlehnung an Gemeingüter im Allgemeinen digitale Gemeingüter nach dem Verständnis des WBGU digitalisierte Daten-, Informations- und Wissensgüter, die als nicht-rivale Ressourcen im Gemeininteresse möglichst breit, öffentlich zugänglich gemacht werden. Sie sollten technisch über öffentlich-rechtliche IKT bereitgestellt werden und sind vor Ausschluss, Privatisierung und Unternutzung zu schützen. Dazu sind sowohl organisatorische, regulatorische als auch finanzielle Weichenstellungen wie Bereitstellungspflichten nötig, um Gemeinwohlorientierung mittels digitaler Gemeingüter auszuprägen.

Vortrag #10 von Maija Poikela

Location, Privacy and You

In today’s technological world, there is an enormous amount of personal digital data being collected using various technologies. This data is either explicitly provided by the users through social media posts, searches and other services, or collected automatically, usually unnoticed by the users. Location data is a piece of information that is one of the most sensitive types of data, as from seemingly anonymous location data, a lot can be inferred. This talk discusses location privacy from the users’ perspective, and gives a short introduction to what is involved in conducting research around this topic.

Maija Poikela received her PhD on the topic of perceived privacy in location-based systems from the Quality and Usability Lab at TU Berlin, Germany in 2019. She obtained her M.Sc. degree in Signal Processing and Communications Engineering from Tampere University of Technology, Finland, in 2010, focusing on subjective quality and the human perception of stereoscopic videos. Her research focuses on usable privacy – the intersection of human users and technology – assessing the challenges posed by collection, processing, and distribution of personal information. She conducts empirical research in which she assesses the effect of various factors such as context on privacy perception and on privacy-related behaviour. From August 2019 she works on the topics of usable privacy and security at the department of Secure Systems Engineering at the Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC).

Sommersemester 2021

Sommersemester 2021, ab 19.04.2021, jeden Montag 16.15-17.45 Uhr
Architekturgebäude der TU Berlin
, Straße des 17. Juni 152, Hörsaal A151

Vortrag #1 von Thilo Hagendorff

Thilo Hagendorff  arbeitet als Wissenschaftler und Experte für angewandte Ethik an der Universität Tübingen. Er ist Autor mehrerer Sachbücher und Mitglied im Forum Privatheit, von dem das White Paper TRACKING erstellt und herausgegeben wurde. Es beschreibt die vielen bei der alltäglichen Internetnutzung eingesetzten Tracking-Methoden aus technischer Sicht und bewertet sie mit Bezug auf die gesetzlichen Vorgaben. Schließlich leitet es Empfehlungen für technische und rechtliche Weiterentwicklung auf dem Gebiet ab. 

In seinem Vortrag am 19.4. : Beschreibung und Bewertung neuer Tracking-Methoden

stellt Thilo Hagendorff die Studie vor und geht auf aktuelle Entwicklungen ein.

Aktuelle Links: Berlin Group (IWGDPT) veröffentlicht Arbeitspapiere zu Data Portability and Web Tracking

Thilo Hagendorff: "Das Ende der Informationskontrolle", Transcript (2017)

Vortrag #2 von Tobias Urban

Tobias Urban arbeitet als Wissenschaftlicher Mitarbeiter im Institut für Internet-Sicherheit – if(is) an der Westfälischen Hochschule in Gelsenkirchen und als Berater bei der secunet Security Networks AG im Bereich eHealth. Er ist Mitglied des Acceptable Ads Committee.

Der Vortrag von Tobias: Ich weiß, wo Du letzten Sommer gesurft hast - Privatheit und on-line Werbung

befasst sich mit dem Einfluss der Datenschutz-Grundverordnung (DSGVO) auf Online-Werbung. Dabei zeigt er auf welchen technischen Einfluss die Verordnung im Web tatsächlich hatte und diskutiert den Nutzen der Nutzer:innen von der DSGVO haben am Beispiel der Umsetzung des „Auskunftsrecht der betroffenen Person“ (Art. 15 DSGVO).

Aktuelle Links: Auszug der Amazon-Daten anfordern

Noyb: Handy kaufen - Tracker bekommen

Vortrag #3 von Wouter Lueks

Privacy-friendly digital proximity tracing (Vortrag in englischer Sprache)

Digitale Kontaktverfolgungs-Apps wie die Corona-Warn-App benachrichtigen Personen, die sich in unmittelbarer Nähe zu einer Person aufgehalten haben, bei der COVID-19 diagnostiziert wurde. Solche Apps zielen darauf ab, die traditionelle Kontaktverfolgung zu ergänzen, indem sie Personen schneller benachrichtigen und/oder Personen benachrichtigen, die sonst nicht erreichbar wären.

Dieser Vortrag nimmt Sie mit auf einen Rundgang durch die digitale Näherungsverfolgung. Er erklärt, wie wir ein Protokoll entwickelt haben, das die Privatsphäre der Benutzer wahrt und Missbrauch verhindert. Dieses Protokoll bildet nun die Grundlage für die Kontaktverfolgung-App in 41 Ländern. Wir schauen uns zunächst das Basisprotokoll an, um zu erklären, wie Digitale Kontaktverfolgungs-Apps funktionieren, wie sie die Nähe bestimmen und wie sie wissen, dass sie den Benutzer benachrichtigen sollen.

Im zweiten Teil des Vortrags geht es um unsere Erfahrungen beim Versuch, ein solches digitales Kontaktverfolgungs-System einzusetzen. Es stellt sich heraus: Die Realität ist nicht so einfach, wie wir es uns wünschen. Es werden die neuen und unerwarteten Herausforderungen diskutiert, denen wir gegenüberstanden und dass sie neue Lösungen erfordern, um die Privatsphäre zu wahren.

Wouter Lueks ist Post-Doktorand im SPRING-Labor der EPFL, das von Carmela Troncoso geleitet wird. Er konzentriert sich auf das Entwerfen, Erstellen und Bereitstellen von datenschutzfreundlichen Systemen. Dazu kombiniert er angewandte Kryptographie, Modellierung von Datenschutz/Bedrohungen/Anforderungen und clevere Systemtechnik. Er hat an einem sicheren und datenschutzfreundlichen Dokumentensuchsystem für Journalisten gearbeitet und in jüngerer Zeit an der Entwicklung, Analyse und Implementierung von Systemen zur Verfolgung digitaler Nähe und Anwesenheit.

Vortrag #4 von Annette Hiller

Annette Hiller ist seit 2008 behördliche Datenschutzbeauftragte der TU Berlin und stellvertretende Leiterin des Referats für Angelegenheiten der Akademischen Selbstverwaltung (seit März kommissarische Leiterin). Sie ist Juristin und war vor der Aufnahme ihrer Arbeit an der TU Anwältin.

Sie hat mit ihrem Team die datenschutzrechtlichen Bewertungen der Videokonferenztools, die die Leitung für die Verwendung an der TU in die engere Wahl genommen hat, verfasst und die datenschutzgerechte Konfiguration der ausgewählten Tools begleitet.

Sie war Mitunterzeichnende des gemeinsamen Schreibens von Datenschutzbeauftragten und Personalräten Berliner Hochschulen an ihre Leitungen, in welchem der verstärkte Einsatz von Open Source Tools anregt wurde.*

An den nach dem EuGH-Urteil Schrems II erforderlichen Vertragsverhandlungen mit den Betreibern der an der TU eingesetzten Videokonferenztools war sie maßgeblich beteiligt.

Insofern kann sie in ihrem Vortrag Datenschutzrechtliche Vorgaben für eLearning-Videoplattformen

nicht nur allgemein die Grundsätze des Datenschutzes erläutern und welche Prüfvoraussetzungen für Videoplattformen sich aus diesen ergeben, sondern kann „aus dem Nähkästchen“ plaudern, welchen Herausforderungen sich konkret die TU gegenüber sah und wie diese überwunden wurden.

*https://blogs.tu-berlin.de/datenschutz_notizen/2021/01/27/personalraete-und-datenschutzbeauftragte-der-berliner-hochschulen-setzen-sich-fuer-open-source-videokonferenztools-ein/ 

Vortrag #5 von Melanie Stilz & Tobias Fiebig

Pflichtfach Datenschutz - cyber4EDU stellt sich vor (Melanie Stilz)

Cyber4EDU ist ein Verein aus Eltern, Pädagog*innen und Nerds der die Digitalisierung von Schulen unterstützt, im Spannungsfeld Datenschutz, Didaktik und Chancengleichheit. Gerade der Umgang von Kindern und Jugendlichen mit Technik muss tracking- und analysefrei sein. Die DSGVO legt Bürger*innen das Recht auf die Kontrolle über ihre eigenen Daten in die Hand, stellt im Umkehrschluss aber auch neue Anforderungen an digitale Bildungsangebote. Gleichzeitig sind wir der Auffassung dass im Bildungsbereich Gemeinwohl vor individueller Bereicherung gelten muss. Kinder und Jugendliche müssen den Umgang mit Technik und das Agieren im digitalen Raum lernen statt ihnen den Umgang mit Produkten beizubringen. Daher helfen wir Schulen und anderen Bildungseinrichtungen beim Einsatz freier Software. Nicht zuletzt legen wir Wert darauf, dass Lernen im digitalen Raum mindestens genauso unterhaltsam und zielführend sein soll wie im Klassenraum. Und dass Open Source Software und Datenschutz dabei keine Hinderungsgrund sind. Digitaler Unterricht ist nicht zwangsweise besser oder schlechter - aber auf jeden Fall erfordert er andere didaktische Konzepte.

Dr. Melanie Stilz ist wissenschaftliche Mitarbeiterin am Fachgebiet Arbeitslehre/Technik und Partizipation der TU Berlin (https://www.arte.tu-berlin.de/menue/team/dr_melanie_stilz/). Sie ist Mitgründerin und Vorständin bei Cyber4Edu.

 

Heads in the Cloud: Between Zoom et al. und BigBlueButton - Erfahrungen an der TU Delft (Tobias Fiebig)

Die Digitalisierung von Bildung und Forschung ist eines der zentralen Themen der Entwicklung des Bildungsstandortes Deutschland. Der öffentliche Diskurs betrachtet die Bundesrepublik dabei teils als zögerlich. Im Zuge dieser Digitalisierungsdebatte werden die Plattformen großer Cloud Anbieter (Microsoft Teams, Zoom) oft als probates Mittel zur weiteren Digitalisierung der Universitäten gepriesen, während Datenschutzbedenken als hinderlich gelten. In diesem Vortrag betrachten wir das Problemfeld der Digitalisierung und Cloud-Migration von Universitäten mit Hilfe empirischer Methoden. Durch die Nutzung von großflächigen Netzwerkmessungen sind wir in der Lage dazu ein schlüssiges Bild der Digitalisierung und Abhängigkeit von Cloudplattformen an deutschen Universitäten sowie international zu zeichnen. Dabei stellen wir fest, dass sich International zwei Gruppen bilden: Zum einen universitäre Systeme, welche bereits vor Jahren den Schritt hin in die Abhängigkeit von großen Cloud Providern (Microsoft/Google/Amazon) gegangen sind, und solche welche ihre akademische Unabhängigkeit bisher Großteils bewahren konnten. Eine interdisziplinäre Kontextualisierung unserer Ergebnisse unterstreicht dabei, dass sich Deutschland aktuell an einem Scheideweg befindet. Wir als Lehrende und Forschende müssen uns die Frage stellen ob wir—allen Gefahren zum Trotz—diesem internationalen Trend folgen wollen, oder eine führende Rolle darin einnehmen eine digitale Zukunft zu schaffen, welche die Freiheit von Forschung und Lehre erhält. Daher schließen wir diesen Vortrag mit einer Forschungsagenda für eine unabhängige Digitale Zukunft der Universität.

Dr.-Ing. Tobias Fiebig is an assistant professor in the Information and Communication Technology section at the faculty of Technology, Policy and Management of TU Delft, focusing on identifying and mitigating human-factors based and preventable security issues in IT systems—like those all too common in the Internet of Things. For this, Dr.-Ing. Fiebig uses qualitative research methods, but also develops new tools for the future-proof Internet scale assessment of vulnerabilities.

Vortrag #6 von Rainer Mühlhoff

Dieser Vortrag adressiert die neuen Herausforderungen für Datenschutz und Privatheit im Kontext prädiktiver Analytik und Künstlicher Intelligenz. Im Zentrum stehen die Anwendungen des maschinellen Lernens zur Vorhersage menschlichen Verhaltens oder zur Abschätzung sensibler Informationen anhand der Daten vieler anderer Menschen. Durch die Verwendung der auf diesen Techniken aufbauenden Scoring-, Klassifikations- oder automatischen Entscheidungsverfahren in ökonomischen, politischen, wohlfahrtsstaatlichen, medizinischen, edukativen, juristischen etc. Kontexten entstehen neue Formen sozialer Selektion und technologischer Machtausübung, die unsere Gesellschaften zunehmend prägen. Weil die Ermöglichung dieser Techniken zumeist auf die Fülle der bei großen Plattformunternehmen angehäuften Alltagsdaten (Nutzungsdaten, behaviorelle Daten, Social Media Daten, Ortsdaten, Verbindungsdaten, …) zurückzuführen ist, zu der wir alle durch die Benutzung vernetzter digitaler Medien beitragen, sind die sozialen Folgen prädiktiver KI unweigerlich mit einem kollektiven ethischen Problem verbunden: Es ist eben nicht folgenlos, seine Daten preiszugeben, wenn man für sich selbst meint, „nichts zu verbergen zu haben“.

Nach diesen Vorüberlegungen unterbreitet der Vortrag unter dem Titel „Predictive Privacy“ einen Vorschlag zur begrifflichen Neufassung von „Privatsphäre“, um einen effizienteren und kollektivistisch orientierten Datenschutz im Angesicht prädiktiver Analytik zu ermöglichen. Zum Schutz vor unerwünschten Effekten prädiktiver Analytik sind nicht nur explizit erhobene oder erfasste, sondern auch abgeschätzte Informationen als Gegenstand einer möglichen Verletzung von Privatsphäre anzusehen. Die Regulierung der Verwendungsmöglichkeiten abgeleiteter Informationen fällt dann genauso in den Bereich des Datenschutzes wie die der personenbezogenen Daten.

Rainer Mühlhoff ist Philosoph und Mathematiker am Excellence Cluster Science of Intelligence an der Technischen Universität Berlin. Seine Forschungsinteressen sind Ethik der Künstlichen Intelligenz sowie Datenschutz und kritische Philosophie im Kontext digitaler Medien. In verschiedenen interdisziplinären Projekten kooperiert er mit Informatiker*innen und untersucht das Zusammenspiel von Technologie, Macht und gesellschaftlicher Veränderung. Weitere Informationen: rainermuehlhoff.de

Vortrag #7 von Max von Grafenstein

Datenschutzrechtliche Hinweise und Einwilligungen erfüllen bis heute kaum ihren Zweck: Kaum jemand versteht, welche personenbezogenen Daten für welche Zwecke verarbeitet werden und welche Bedeutung das für einen selbst hat. Daran hat die neue EU Datenschutz-Grundverordnung (DSGVO) kaum etwas verändert. Einige regulatorische Innovationen weist die DSGVO allerdings auf, sie müssen nur richtig angewendet werden. Hierzu zählt allen voran der Ansatz Data Protection by Design, wonach Datenverarbeiter die rechtlichen Anforderungen der DSGVO – z.B. das Zweckbindungs- und Transparenzprinzip sowie die Betroffenenrechte – technisch und organisatorisch so implementieren müssen, dass sie die Grundrechte der Betroffenen effektiv vor den Risiken der Verarbeitung schützen. Auch sogenannte Privacy Icons gehören zu den Neuerungen. Damit diese Innovationen aber richtig angewendet werden können, galt es in den letzten Jahren einige grundlegende Forschungsfragen an der Schnittstelle von Recht, Technik, Wirtschaft und UX Design zu klären. Die Vorlesung gibt am Beispiel von Privacy Icons einen Ein- und Überblick zum aktuellen Stand der Forschung im Bereich Data Protection by Design.

Vortrag #8 von Bettina Berendt

Prof. Dr. Bettina Berendt ist Leiterin des Fachgebiets Internet und Gesellschaft an der Technischen Universität Berlin, Direktorin des Weizenbaum-Instituts und Gastprofessorin an der KU Leuven, Belgien. Vor ihrer Tätigkeit an der TU Berlin war sie Professorin in der Gruppe für Künstliche Intelligenz am Fachbereich Informatik der KU Leuven und Juniorprofessorin für Wirtschaftsinformatik an der Wirtschaftwissenschaftlichen Fakultät der HU Berlin. Ihre Forschung fokussiert auf Data Science und Critical Data Science, insbesondere Privatheit/Datenschutz, Diskriminierung und Fairness, und Ethik und KI, wobei textuelle und web-bezogene Daten im Vordergrund stehen. Mehr Information findet sich unter https://people.cs.kuleuven.be/~bettina.berendt/.

Bettina Berendt is Professor for Internet and Society at the Faculty of Electrical Engineering and Computer Science atTechnische Universität Berlin, Germany,Director of the Weizenbaum Institute for the Networked Society, Germany, and guest professor at KU Leuven, Belgium. She previously held positions as professor in the Artificial Intelligence group (Department of Computer Science at KU Leuven) and in the Information Systems group (School of Business and Economics at Humboldt-Universität zu Berlin). Her research centres on data science and critical data science, including privacy/data protection, discrimination and fairness, and ethics and AI, with a focus on textual and web-related data.

Abstract

Autonomy and privacy are two core "European values" that also get mentioned regularly in current discussions of AI and big data. In this talk, I will investigate some of the complexities of these notions and their interrelationships. In particular, I will argue why a purely individualistic notion of both autonomy and privacy fails to capture much of what we care about when we talk about "self-determination" and "being let alone". We will discuss alternative notions of both autonomy and privacy, using current examples especially related to technology and more classical examples related to choices. The goal is to draw up recommendations for what we can do in our different roles - as citizens, students, scientists, software developers, managers, ...

Vortrag #9 von Seda Gürses

Abstract: Protective Optimization Technologies – a proposal for contestation in the world rather than fairness in the algorithm

The transformation to service-oriented architectures (SOA) and agile development as the dominant modes for producing software has far reaching implications and has given rise to a new type of system: optimization systems. Businesses nowadays can design systems for "ideal" interactions and environments by optimizing feature selection, behavioral outcomes, resource allocation and planning that is in line with a business growth strategy. In spite of their many advantages, such optimization systems often neglect the economic, ethical, moral, social, and political impact they have on populations and their environments, externalizing associated costs on the latter two. Some frameworks have been developed to address the discontents of optimization systems, e.g., algorithmic fairness, however, they cover a narrow subset of these problems. In particular, existing frameworks focus on the inputs and outputs of algorithms, missing the way that harms are manifested when systems interact with the "world". They focus on users rather than harms and risks for populations, including non-users, and their environments. And, most strikingly, these frameworks rely on the cooperation of service providers. This limits mitigation of externalities to those solutions implemented by an incentivized service provider, failing to explore avenues of action in cases where service providers are not cooperative, intentionally adversarial or simply unable.

In response to this problem, Seda Gürses and colleagues, introduced Protective Optimization Technologies: solutions that enable optimization subjects to defend or push back against these systems' unwanted consequences. During the talk, Seda will discuss the framework which formalizes the design space of POTs and show how it differs from other design paradigms in the literature. She will show how the framework can capture strategies developed in the wild against real optimization systems, and how it can be used to design, implement, and evaluate prototypes for POTs that enable individuals and collectives to protect themselves from unbalances due to the selfishness of traffic beating apps. The example will be used also to demonstrate the workings of optimization systems and the limitations of counter-optimization as a strategy.

Seda Gürses is an Associate Professor in the Department of Multi-Actor Systems at TU Delft at the Faculty of Technology Policy and Management (TPM), and an affiliate at the COSIC Group at the Department of Electrical Engineering (ESAT), KU Leuven. Previously she received the prestigious FWO post-doctoral fellowship of the Research Foundation, Flanders which she completed at KU Leuven, was a research associate and fellow at the Center for Information Technology and Policy at Princeton University, and a fellow at the Media, Culture and Communications Department at NYU Steinhardt and at the Information Law Institute at NYU Law School. Her work focuses on privacy enhancing and protective optimization technologies (PETs and POTs), privacy engineering, as well as questions around software infrastructures, social justice and political economy as they intersect with computer science. She is currently in the Management Team of the TPM AI Lab, is a member of the DP3T Team that developed the privacy preserving contact tracing protocol later adopted by Google and Apple, is a co-founder of The Institute for Technology in the Public Interest.

Vortrag #10 von Lena Rohrbach

Zusammenfassung: Ihr Vortrag "Außer Kontrolle - mangelhafte EU-Vorgaben für den Export von digitalen Überwachungstechnologien"  beschäftigt sich mit dem internationalen Handel mit Überwachungstechnologie. Lena Rohrbach erklärt die Rolle deutscher und europäischer Unternehmen bei der Unterdrückung von Menschenrechtsverteidiger_innen, Oppositionellen und Medien in Ländern, in denen Menschrechtsverletzungen an der Tagesordnung sind: Deutsche Trojaner, in Deutschland als "Staatstrojaner" im Einsatz, überwachen die Oppositionsbewegung in der Türkei, europäische Gesichts- und Emotionserkennungstechnologie zur flächendeckenden Massenüberwachung wird nach China geliefert. Der Vortrag erklärt den globalen Kontext zunehmend schrumpfender Spielräume für die Zivilgesellschaft ("Shrinking Spaces") und setzt sich mit der Reform der Europäischen Dual Use Verordnung auseinander, die neue Regeln für den Handel mit Überwachungstechnologie aus der Europäischen Union schafft.

Lena Rohrbach ist Referentin für Wirtschaft, Rüstungsexportkontrolle und Menschenrechte im digitalen Zeitalter bei Amnesty International. Zuvor arbeitete sie für Campact und war Sprecherin der Piratenpartei. Sie hat Philosophie, Kulturwissenschaft und Geschichte in Berlin und International Human Rights Law an der University of Nottingham studiert.