
Können Sie Ihre Arbeit kurz vorstellen?
Ich konzentriere mich auf maschinelles Lernen, das bei der audio-visuellen Wahrnehmung angewandt wird. Ziel ist es, Systemen zu ermöglichen, den geplanten Zweck zu erfüllen und ihre Fähigkeiten zu verbessern, indem sie mit ihrer Umgebung, anderen Systemen und Menschen interagieren.
Meine Forschung zielt darauf ab, Modelle der automatisierten Wahrnehmung zu entwickeln, die eine effiziente Nutzung von Sensorinformationen ermöglichen und den sicheren Betrieb autonomer Systeme gewährleisten. Solche Systeme können Informationen über ihre Umgebung sammeln und in Zusammenarbeit mit Menschen oder auch unabhängig von ihnen Entscheidungen treffen. Diese Modelle erweitern die Fähigkeiten autonomer Systeme dahingehend, dass sie in neuen Situationen selbständig sehen, hören und handeln werden können.
Welche Herausforderungen bringt der Einsatz dieser Technologien mit sich?
Da maschinelle Lernsysteme einen immer grösseren Platz in unserem Leben einnehmen und unsere Gesellschaft mit einem beispiellosen Tempo des technologischen Wandels konfrontiert ist, muss unbedingt sichergestellt werden, dass wir ihnen vertrauen können. Ich beschäftige mich mit den heiklen Vertrauensfragen, die sich stellen, wenn diese Systeme riesige Mengen von durch Menschen erzeugte Daten verarbeiten und Entscheidungen treffen, die Auswirkungen auf Menschen haben.
Ich arbeite an Methoden, mit denen diese Systeme so trainiert werden können, dass sie sich erwartungsgemäss verhalten, unvorhergesehene Folgen begrenzen und sensible Informationen schützen. Indem wir uns diesen entscheidenden Fragen widmen, können wir zuverlässige und für die Gesellschaft nützliche Systeme des maschinellen Lernens entwickeln.
An welchen Lösungen arbeiten Sie dabei konkret?
Die Fotos, Töne und Informationen über unsere Bewegungen, die wir über unsere Apps und Sprachassistenten teilen, sagen viel über unsere Gewohnheiten, Vorlieben und Interessen wie auch über unseren Gesundheitszustand aus. Dank der grossen Menge an bereits verfügbaren Daten lassen sich diese Informationen oft automatisch erraten. Damit jeder wirklich die Kontrolle über seine persönlichen Daten hat, arbeiten wir an Methoden, mit denen sensible Informationen geschützt werden können, damit sie nicht ohne unsere Zustimmung offengelegt werden können. Wir können den Systemen beibringen, Informationen so darzustellen, dass private und nicht private Daten voneinander getrennt werden. Daten können auch leicht verändert werden, um bestimmte Informationen zu schützen, die man nicht preisgeben möchte.
« Wir können den Systemen beibringen, Informationen so darzustellen, dass private und nicht private Daten voneinander getrennt werden. »
In einer aktuellen Studie haben Sie acht typische Profile identifiziert, wie Menschen mit dem Thema Datenschutz umgehen (Privacy Personas). Was war das Ziel der Studie und wie sind Sie dabei vorgegangen?
Wir alle haben unterschiedliche Vorstellungen davon, wie wir unsere Privatsphäre gestalten und schützen möchten. Einige Menschen kennen sich gut aus, andere weniger. Unsere Online-Gewohnheiten, in wie weit wir in unsere Fähigkeit, uns zu schützen, vertrauen und die Bedeutung, die wir der Privatsphäre beimessen, variieren von Person zu Person erheblich. Um besser mit jeder Einzelnen respektive jedem Einzelnen über den Schutz der Privatsphäre sprechen und geeignetere Instrumente zum Schutz derselben anbieten zu können, ist es unerlässlich, diese Unterschiede zu verstehen. Man kann sich verschiedene «Typen» von Personen im Umgang mit der Privatsphäre vorstellen.
In Studien wurde bereits versucht, diese «Typen» zu definieren. Oft werden dabei jedoch Personen zusammengefasst, die in wichtigen Punkten recht unterschiedliche Ansichten haben, beispielsweise hinsichtlich der gewünschten Kontrolle über ihre Daten oder ihres Wunsches, Datenschutzinstrumente zu verwenden.
Um noch weiter zu gehen und ein genaueres Bild zu erhalten, haben wir acht verschiedene Profile erstellt. Dazu haben wir die Antworten auf einen interaktiven Fragebogen, in dem die Teilnehmerinnen und Teilnehmer lernen und ihre Meinung äussern konnten, detailliert analysiert. Unsere Analysemethode stellt auf der Grundlage konkreter Zahlen sicher, dass diese acht Profile tatsächlich voneinander unterscheidbar sind.
Wir haben unsere Profile mit bereits bestehenden Profilen verglichen und festgestellt, dass unsere Profile ein detaillierteres und vollständigeres Bild der verschiedenen Arten und Weisen vermitteln, wie Menschen ihre Privatsphäre gestalten. Auf diese Weise können wir jede und jeden besser dabei unterstützen, ihre respektive seine Privatsphäre entsprechend den eigenen Bedürfnissen zu schützen.
Wie können algorithmische Systeme/KI in Zukunft auf ethisch vertretbare Weise eingesetzt werden?
Eine ethisch vertretbare Nutzung dieser Technologien erfordert vor allem Transparenz und Bildung: Wir müssen verstehen können, wie Künstliche Intelligenzen (KI) Entscheidungen treffen, so als ob sie uns ihre Überlegungen darlegen würden. Darüber hinaus ist eine bessere «KI-Kultur» in der Gesellschaft unerlässlich, um diese Technologien zu entmystifizieren, ihre potenziellen Risiken zu erkennen und verantwortungsbewusste Praktiken zu fördern.
Eine weitere große Herausforderung besteht darin, sicherzustellen, dass KI nicht voreingenommen ist und alle Menschen gleich behandelt. Die Daten, anhand derer sie lernt, können bestehende Ungleichheiten widerspiegeln, die es zu erkennen und zu beseitigen gilt. Darüber hinaus müssen die Wahrung unserer Privatsphäre und der Schutz unserer personenbezogenen Daten bei der Entwicklung und Nutzung dieser Systeme im Mittelpunkt stehen.
« Dank unserer Profile können wir jede und jeden besser dabei unterstützen, die Privatsphäre nach den eigenen Bedürfnissen zu schützen. »
Schliesslich muss die KI-Entwicklung inklusiv und menschenzentriert sein. Sie muss die Werte jeder und jedes Einzelnen berücksichtigen und Ungleichheiten vermeiden. Klare Regeln, die unter Beteiligung aller (Forscherinnen und Forscher, Bürgerinnen und Bürger, Politikerinnen und Politiker, Unternehmen) ausgearbeitet werden, müssen eingeführt werden. So kann die Entwicklung und Nutzung der KI in eine Zukunft gelenkt werden, in der sie dem Gemeinwohl dient und unsere Grundwerte achtet.
Gesprächspartner