Einsatz von Bilderkennungstechnologien und Verarbeitung von biometrischen Daten aus Datenschutzsicht
Bilderkennungstechnologien haben in den letzten Jahren enorme Fortschritte gemacht. Durch den Einsatz von künstlicher Intelligenz („KI„) und maschinellem Lernen sind Systeme entstanden, die in der Lage sind, Personen, Objekte und sogar Emotionen auf Fotos oder in Echtzeit-Videos zu erkennen. Während diese Technologien viele positive Anwendungen finden, wie zum Beispiel in der Medizin oder im Verkehrswesen, gibt es auch ernsthafte Bedenken hinsichtlich des Datenschutzes und der Privatsphäre von Personen, welche durch solche Systeme identifiziert werden können. In diesem Beitrag wird erläutert, wie Bilderkennungstechnologien genutzt werden können, um Personen zu identifizieren, und welche Datenschutzprobleme damit verbunden sind.
Bilderkennungstechnologien zur Identifizierung von Personen
Die Identifizierung von Personen auf Bildern oder in Videos kann auf verschiedenen Wegen erfolgen. Eine der bekanntesten Techniken ist die Gesichtserkennung. Durch den Vergleich von charakteristischen Merkmalen, wie beispielsweise der Position und Form von Augen, Nase und Mund, können Algorithmen Personen auf Fotos oder in Videos mit hoher Genauigkeit erkennen und identifizieren.
Neben der Gesichtserkennung gibt es auch andere Techniken, wie die Erkennung von Körperhaltungen, Gangmustern oder sogar Tattoos, die dazu verwendet werden können, um Personen zu identifizieren. Diese Techniken werden immer ausgefeilter, sodass auch dann eine Identifikation einer Person möglich ist, wenn das Gesicht dieser verdeckt oder unkenntlich gemacht wurde.
Datenschutzprobleme und Privatsphäre
Die Identifizierung von Personen durch Bilderkennungstechnologien wirft verschiedene Datenschutzprobleme auf.
Verarbeitung von biometrischen Daten
Eines der zentralen Probleme ist die Erfassung und Verarbeitung von biometrischen Daten, zu denen auch Gesichtsmerkmale oder Gangmuster zählen. Biometrische Daten sind besonders schützenswert, da sie unveränderliche und eindeutige Informationen über eine Person liefern und somit eine hohe Identifizierbarkeit gewährleisten können. Wenn biometrische Daten zur eindeutigen Identifizierung einer natürlichen Person verarbeitet werden, sind die Bestimmungen des Art. 9 Datenschutz-Grundverordnung („DSGVO“) besonders zu beachten. Die Sammlung und Speicherung von Bildern und biometrischen Daten kann zudem das Risiko von Datenlecks erhöhen. Ein unbefugter Zugriff auf diese Daten könnte es Dritten ermöglichen, Personen anhand ihrer biometrischen Merkmale gezielt zu identifizieren oder zu diskriminieren.
Überwachung
Die Verwendung von Bilderkennungstechnologien kann darüber hinaus dazu führen, dass Personen ohne ihr Wissen und ihre Zustimmung überwacht und verfolgt werden. Dies kann in verschiedenen Kontexten problematisch sein, beispielsweise bei der Überwachung von Demonstrationen oder der Erfassung von Personen in sensiblen Bereichen wie Krankenhäusern oder Schulen.
Diskriminierung in Identifikationssystemen
Ein Beispiel für Diskriminierung in Identifikationssystemen ist die Kategorisierung von Personen anhand ihrer ethnischen Zugehörigkeit oder Geschlecht. Dies kann zu einer unfairen Behandlung und Benachteiligung bestimmter Gruppen führen, wenn zum Beispiel ein System bestimmte Muster bei einer bestimmten ethnischen Gruppe als verdächtig einstuft. Ein weiteres Beispiel ist die Identifikation von Transgender-Personen, bei der Systeme Schwierigkeiten haben können, Geschlechtsmerkmale korrekt zuzuordnen, was zu einer erhöhten Fehlerquote und Diskriminierung führen kann.
Maschinelles Lernen spielt eine zentrale Rolle bei der Entwicklung dieser Identifikationstechniken. Durch das Trainieren von Algorithmen anhand großer Datenmengen können Systeme Muster erkennen und Vorhersagen treffen. Allerdings können diese Algorithmen nur so gut sein wie die Daten, mit denen sie trainiert wurden. Wenn die Trainingsdaten diskriminierende Vorurteile enthalten, kann dies auch zu einer Diskriminierung durch die Algorithmen führen.
Ein Beispiel dafür ist die sogenannte „Bias“ in den Trainingsdaten. Wenn eine KI auf Datensätzen trainiert wird, die überwiegend Daten von Männern weißer Rasse umfassen, oder von solchen trainiert wird, kann sie Schwierigkeiten haben, korrekte Vorhersagen für Personen anderer Geschlechter oder ethnischer Gruppen zu treffen. Dies kann zu einer unfairen Behandlung dieser Gruppen führen und ihre Identifikation in diesen Systemen beeinträchtigen.
Um Diskriminierung in Identifikationssystemen zu vermeiden, ist es entscheidend, dass die Trainingsdaten vielfältig und repräsentativ für alle Gruppen sind. Auch die Entwickler sollen möglichst verschiedene Personengruppen inkl. unterschiedliche Geschlechter, Alter, Herkunft etc. repräsentieren. Zudem sollten ethische Richtlinien und Transparenz bei der Entwicklung dieser Technologien gewährleistet werden, um ihre faire und gerechte Anwendung sicherzustellen.
Profiling von biometrischen Profilen
Bei der Erstellung eines biometrischen Profils werden hingegen viele physische Merkmale einer Person, wie Gesichtszüge, Fingerabdrücke oder Iris-Scans, zu einer umfassenden digitalen Signatur zusammengeführt. Solche Profile können für verschiedene Zwecke wie Identifizierung, Zugangskontrolle oder Überwachung genutzt werden. In Zukunft könnten biometrische Profile mit weiteren Daten angereichert werden, etwa medizinischen Informationen, Konsumverhalten oder Beziehungsnetzwerken. Dies birgt die Gefahr, dass Unternehmen und Regierungen tiefe Einblicke in Persönlichkeitsmerkmale und Verhaltensmuster von Menschen erhalten.
Deepfakes
Ein Beispiel für den möglichen Missbrauch biometrischer Daten sind Deepfakes. Ein 61-jähriger Kanadier wurde wegen der Anfertigung von Darstellungen von Kindesmissbrauch mit Deepfake-Technologie zu insgesamt acht Jahren Gefängnis verurteilt. Das Gericht befürchtet, dass Täter in Zukunft Bildmaterial aus sozialen Medien nutzen könnten, um Minderjährige in Missbrauchsszenen zu montieren, wodurch die Nachfrage nach solchen Inhalten steigen könnte. Die zunehmende Verbreitung und Zugänglichkeit von KI-gestützten Deepfake-Technologien erschwert Ermittlungen und Verhinderung der Weiterverbreitung der Aufnahmen. Der Fall könnte Präzedenzwirkung für künftige Fälle entfalten.
Mögliche Lösungen und Ansätze
Um die Privatsphäre von Personen bei der Verwendung von Bilderkennungstechnologien zu schützen, gibt es verschiedene Ansätze. Einerseits können gesetzliche Regelungen dazu beitragen, den Einsatz solcher Technologien in bestimmten Kontexten zu beschränken oder zu reglementieren. Beispielsweise erlaubt die DSGVO die Verarbeitung von biometrischen Daten, die zur eindeutigen Identifizierung einer natürlichen Person dienen, nur unter strengen Voraussetzungen.
Weitere Beispiele für gesetzliche Regelungen sind der Gesichtserkennungs-Verbots-Gesetzesentwurf des US-Kongressabgeordneten Pramila Jayapal und der kalifornische Gesetzesentwurf AB-1215. Beide beschränken erheblich den Einsatz von Gesichtserkennung durch Polizeibehörden und andere Strafverfolgungsbehörden. Derartige Gesetzesentwürfe zeigen, dass der Wunsch nach mehr Schutz der Privatsphäre und Bürgerrechte auch auf politischer Ebene zunehmend Beachtung findet.
In China hingegen, setzt die Regierung Gesichtserkennung bereits im großen Stil ein, ohne viele rechtliche Beschränkungen. Die chinesische Regierung nutzt diese Technologie, um die Bevölkerung zu überwachen und potenzielle Dissidenten aufzuspüren. Dies wirft Fragen bezüglich des Schutzes der Privatsphäre und der bürgerlichen Freiheiten auf.
Andererseits können auch technische Lösungen entwickelt werden, die den Datenschutz bei der Verwendung von Bilderkennungstechnologien verbessern. Eine Möglichkeit besteht darin, die Algorithmen so zu gestalten, dass sie nur bestimmte Merkmale wie Augenabstand oder Nasenform erkennen und keine vollständigen biometrischen Profile erstellen.
Zusammenfassung
Die Bilderkennungstechnologien bieten viele Vorteile und Möglichkeiten, aber sie bringen auch ernstzunehmende Datenschutzprobleme mit sich. Um die Privatsphäre von Personen zu schützen und den Missbrauch solcher Technologien zu verhindern, ist es wichtig, sowohl gesetzliche als auch technische Lösungen zu entwickeln und umzusetzen. Dabei sollten die Interessen und Rechte der betroffenen Personen stets im Vordergrund stehen.