Cebit 2018: Künstliche Intelligenz warnt vor Fotos, die mehr verraten als gewünscht
Im Internet laden Menschen jede Minute Zehntausende von Bildern hoch, auf der Online-
Plattform Facebook sind es sogar mehr als Hunderttausend. Oft geben die Nutzer dadurch
mehr preis, als ihnen lieb ist. Informatiker des CISPA Helmholtz-Zentrums i.G und des Max-
Planck-Instituts für Informatik in Saarbrücken haben daher Methoden für einen digitalen
Assistenten entwickelt, der Anwender vor der Herausgabe zu brisanter Bilder warnt. Das
Wissen dafür haben die Forscher ihrem „Visual Privacy Advisor“ durch Maschinelles
Lernen und Neuronale Netze beigebracht. Besucher der Computermesse Cebit können
seine neuesten Fähigkeiten ab dem 11. Juni in Hannover in Halle 27 am Stand F68 testen.
Jedes Smartphone ermöglicht seinem Besitzer festzulegen, ob der aktuelle Aufenthaltsort
oder die eigene Kontaktliste weitergegeben werden darf. Auch Online-Plattformen wie
Facebook verfügen über ähnliche Mechanismen, um die Privatsphäre der Nutzer zu schützen.
Für hochgeladene Fotos ist dies jedoch bisher nicht der Fall. „Fotos sind eine unterschätzte
Gefahr. Viele Menschen wissen nicht, wie viele Informationen in diesen stecken“, erklärt
Mario Fritz, der seit Juni dieses Jahres am neuen CISPA Helmholtz-Institut i.G. auf dem
Saarland Informatics Campus in Saarbrücken forscht. Deswegen hat Fritz zusammen mit
Tribhuvanesh Orekondy und Bernt Schiele vom Max-Planck-Institut für Informatik Methoden
entwickelt, die automatisch Bilder analysieren und bei Herausgabe das Risiko für die eigene
Privatsphäre einschätzen. Die Wissenschaftler haben somit die Grundlage für eine visionäre
Software geschaffen, deren Einsatzszenario Fritz wie folgt beschreibt: „Sie wollen mit Ihrem
Handy ein Bild verschicken. Unsere App warnt Sie jedoch, dass dieses Bild brisant ist, zudem
gegen die von Ihnen aufgestellten Regeln verstößt und daher nicht geteilt werden sollte.“
Um für Fotos ähnliche Privatsphäre-Schalter zu erhalten, wie sie bereits für Orts- und
Kontaktdaten existieren, mussten die Forscher erst eine Klassifikation für die Bilder
entwickeln. Laut dieser existieren 68 Merkmale, die auf Wunsch zu schützen sind. Tattoos,
Fingerabdrücke gehören genauso dazu, wie Geschlecht und die eigene E-Mail-Adresse.
Danach stellten die Saarbrücker Wissenschaftler eine Datensammlung von 22.000 Bilder
zusammen. Jedem Bild davon fügten sie Schlagworte hinzu, die der Klassifikation
entsprachen. Im Schnitt beinhaltete danach jedes Bild rund fünf Merkmale. 10.000 der so
annotierten Bilder nutzten sie, um ihre neuronalen Netzwerke, so genannnte „Convolutional
Neural Networks (CNN)“ aus dem Gebiet des „Deep Learnings“, zu trainieren. Parallel dazu
führten sie Studien mit mehreren Hundert Personen durch, um herauszufinden, wie sehr
diese sich durch bestimmte Merkmale auf den Bildern in ihrer Privatsphäre verletzt fühlen
und wie leicht sie diese Merkmale auf den Bildern tatsächlich erkennen. Auch mit diesen
Erkenntnissen füttern die Forscher ihre neuronalen Netzwerke. Durch das so entwickelte
Rechenmodell können diese nicht nur die Merkmale finden, sondern auch einschätzen, wie
unwohl sich die eine Person fühlen würde, wenn die Information publik wird. Mit diesem
Wissen analysiert die Software nun 8000 weitere Bilder. Das Ergebnis: Auf Grundlage des
Rechenmodells beurteilen die neuronalen Netzwerk die Gefahr für die Privatsphäre besser als
die menschliche Testgruppe, denn sie erkennen mehr brisante Fotos und analysieren diese
genauer. Nun arbeiten die Forscher daran, dass die kompromittierenden Bildbereiche
automatisch geschwärzt werden.
Die Forschung wurde in Teilen finanziert durch den von der Deutschen
Forschungsgemeinschaft geförderten Sonderforschungsbereich 1223 „Methoden und
Instrumente zum Verständnis und zur Kontrolle von Datenschutz“.