Angriff auf unsere Freiheit
Künstliche Intelligenz nutzt ungeheure Datenmengen aus unserem persönlichen Umfeld. Sabine Leutheusser-Schnarrenberger über KI-Risiken für Privatsphäre, Selbstbestimmung und Grundrechte.

Im Zeitalter digitaler Innovation spielt die künstliche Intelligenz (KI) eine immer wichtigere Rolle – für Unternehmen, für das tägliche Leben der Bürgerinnen und Bürger und für die Politik. Die Entscheidung, diese Technologie zu integrieren, ist nicht nur eine strategische Investition, sondern auch eine Antwort auf die wachsenden Anforderungen einer sich wandelnden Welt. Ist der Einsatz von KI also alternativlos? Meine Antwort: Die Befassung mit KI, mit ihren Chancen und Risiken, ist alternativlos. Die Befassung damit, wie sich KI zu den Freiheitsrechten der Bürgerinnen und Bürger verhält, wie Spannungen behandelt, aufgelöst oder zumindest in eine Balance gebracht werden können, ist unverzichtbar. Ein wesentliches Merkmal von KI-Systemen ist die Nutzung intelligenter Algorithmen und großer Datenmengen – auch von personenbezogenen Daten. Die meisten Bürgerinnen und Bürger stehen einer Datenverwendung beispielsweise für verbesserte medizinische Behandlungen positiv gegenüber. Auch in Bezug auf die Benutzung von Daten für mehr Sicherheit, die für den präventiven oder repressiven Gebrauch erhoben werden, haben sie weniger Bedenken. Und die Verwertung von Informationen aus sozialen Netzwerken gehört für viele Nutzerinnen und Nutzer zur täglichen Routine. Daten dienen als Basis für moderne KI-basierte Assistenzsysteme wie ChatGPT oder andere. Wenig bewusst machen sich Nutzende, dass es dabei sehr häufig auch um personenbezogene Daten und damit um Persönlichkeitsrechte des Einzelnen geht, also um die Privatsphäre, die informationelle Selbstbestimmung, um Gleichbehandlung und auch um geistiges Eigentum und Urheberrechte. Der selbstbestimmte Umgang mit KI-Systemen ist nicht leicht. Für die Nutzenden ist kaum noch nachvollziehbar, auf welche Datenquellen diese Systeme zugreifen und wie diese Daten dann (weiter-)verwendet werden. Auch die Benutzung sozialer Medien, gesteuert von Algorithmen auf der Grundlage von KI, kann nach mehreren Untersuchungen die Fähigkeit der kritischen Reflexion beeinträchtigen. Die Tatsache, dass soziale Medien teils bewusst die einseitige Information und Meinungsbildung vieler Nutzenden – besonders auch sehr junger Menschen – fördern, macht KI-Anwendung so gefährlich, denn diese Meinungsmanipulation gefährdet die Selbstbestimmung. Mehr Transparenz dieser KI-Prozesse, möglicherweise auch durch Kennzeichnung, muss eine Verpflichtung der Plattformbetreiber sein. KI-Systeme können tief in die Grundrechte eingreifen. Zum Beispiel eine staatliche Gesichtserkennung für die innere Sicherheit. Sie analysiert biometrische Merkmale wie Augenabstand, Kieferform oder Nasenlinien und gleicht diese mit Referenzdatenbanken ab. Bisher wird Gesichtserkennung in Deutschland meist nachträglich eingesetzt, etwa vom Bundeskriminalamt, der Bundespolizei, dem Zoll oder auch von Landespolizeibehörden. Aktuell plant das Bundesinnenministerium, sie so einzusetzen, dass ein Abgleich auch mit Bildern aus dem Internet erfolgen darf, nicht mehr nur mit Fotos aus eigenen, datenschutzrechtlich kontrollierten Datenbanken. Dann sind auch Daten wie Bilder von Konzerten, aus dem Fußballstadion oder von Partys dabei, in deren Verwendung Betroffene nicht eingewilligt haben.
Beispiellose Überwachung
Die grundrechtlichen Bedenken liegen auf der Hand. Die biometrische Gesichtserkennung ist ein besonders tiefgreifender Eingriff in die Privatsphäre. Sie ermöglicht eine beispiellose staatliche Überwachung im öffentlichen Raum. Es ist zu befürchten, dass Menschen wegen der Gesichtserkennung öffentliche Orte meiden könnten oder sich nicht mehr trauen zu demonstrieren. Vor allem die zum Teil unklaren Definitionen und die fehlende gesetzliche Begrenzung staatlicher Zugriffe sind zu kritisieren. Dieses KI-System sollte deshalb nur bei Gefahren für schwerwiegende Rechtsgüter eingesetzt werden dürfen. Künstliche Intelligenz ist zudem weder neutral noch objektiv. KI-Modelle und Programme sind immer nur ein Spiegel der Daten, von denen sie lernen, und der Menschen, die sie programmieren. Sie übernehmen Vorurteile unserer Gesellschaft. Was passiert, wenn eine KI mit Texten oder Bildern trainiert wird, die Menschen einseitig zeigen, zum Beispiel Ärzte als alte Männer in weißen Kitteln? Das KI-System wird lernen, dass ein Arzt alt und männlich ist und einen weißen Kittel trägt. Was von dieser Norm abweicht, ist für die Systeme nicht relevant. KI-Programme müssen also nicht mal „absichtlich” diskriminieren. Sie haben es einfach nicht anders gelernt. Das betrifft vor allem Menschen und Gruppen, die unterrepräsentiert sind. Laut der 2024 in Kraft getretenen EU-KI-Verordnung müssen Unternehmen die Risiken ihrer KI-Modelle erfassen und ans KI-Amt der EU-Kommission melden. Außerdem sollen sie Maßnahmen entwickeln, die „in einem angemessenen Verhältnis“ zu den Risiken stehen. So sehr dieser risikobasierte Ansatz zu begrüßen ist, so unbestimmt sind die gesetzlichen Bestimmungen. Deshalb muss der entsprechende Leitfaden, der derzeit ausgearbeitet wird, die Risiken für die Gesellschaft und für die Grundrechte genauso in Betracht ziehen wie andere Risiken durch Cyber- und andere Angriffe oder einen vollständigen Kontrollverlust. Freiheitsrechte sind nicht nur ein Disclaimer für Reden, sondern müssen auch beim Einsatz von KI-Systemen konsequent berücksichtig werden.
Im Zeitalter digitaler Innovation spielt die künstliche Intelligenz (KI) eine immer wichtigere Rolle – für Unternehmen, für das tägliche Leben der Bürgerinnen und Bürger und für die Politik. Die Entscheidung, diese Technologie zu integrieren, ist nicht nur eine strategische Investition, sondern auch eine Antwort auf die wachsenden Anforderungen einer sich wandelnden Welt. Ist der Einsatz von KI also alternativlos? Meine Antwort: Die Befassung mit KI, mit ihren Chancen und Risiken, ist alternativlos. Die Befassung damit, wie sich KI zu den Freiheitsrechten der Bürgerinnen und Bürger verhält, wie Spannungen behandelt, aufgelöst oder zumindest in eine Balance gebracht werden können, ist unverzichtbar. Ein wesentliches Merkmal von KI-Systemen ist die Nutzung intelligenter Algorithmen und großer Datenmengen – auch von personenbezogenen Daten. Die meisten Bürgerinnen und Bürger stehen einer Datenverwendung beispielsweise für verbesserte medizinische Behandlungen positiv gegenüber. Auch in Bezug auf die Benutzung von Daten für mehr Sicherheit, die für den präventiven oder repressiven Gebrauch erhoben werden, haben sie weniger Bedenken. Und die Verwertung von Informationen aus sozialen Netzwerken gehört für viele Nutzerinnen und Nutzer zur täglichen Routine. Daten dienen als Basis für moderne KI-basierte Assistenzsysteme wie ChatGPT oder andere. Wenig bewusst machen sich Nutzende, dass es dabei sehr häufig auch um personenbezogene Daten und damit um Persönlichkeitsrechte des Einzelnen geht, also um die Privatsphäre, die informationelle Selbstbestimmung, um Gleichbehandlung und auch um geistiges Eigentum und Urheberrechte. Der selbstbestimmte Umgang mit KI-Systemen ist nicht leicht. Für die Nutzenden ist kaum noch nachvollziehbar, auf welche Datenquellen diese Systeme zugreifen und wie diese Daten dann (weiter-)verwendet werden. Auch die Benutzung sozialer Medien, gesteuert von Algorithmen auf der Grundlage von KI, kann nach mehreren Untersuchungen die Fähigkeit der kritischen Reflexion beeinträchtigen. Die Tatsache, dass soziale Medien teils bewusst die einseitige Information und Meinungsbildung vieler Nutzenden – besonders auch sehr junger Menschen – fördern, macht KI-Anwendung so gefährlich, denn diese Meinungsmanipulation gefährdet die Selbstbestimmung. Mehr Transparenz dieser KI-Prozesse, möglicherweise auch durch Kennzeichnung, muss eine Verpflichtung der Plattformbetreiber sein. KI-Systeme können tief in die Grundrechte eingreifen. Zum Beispiel eine staatliche Gesichtserkennung für die innere Sicherheit. Sie analysiert biometrische Merkmale wie Augenabstand, Kieferform oder Nasenlinien und gleicht diese mit Referenzdatenbanken ab. Bisher wird Gesichtserkennung in Deutschland meist nachträglich eingesetzt, etwa vom Bundeskriminalamt, der Bundespolizei, dem Zoll oder auch von Landespolizeibehörden. Aktuell plant das Bundesinnenministerium, sie so einzusetzen, dass ein Abgleich auch mit Bildern aus dem Internet erfolgen darf, nicht mehr nur mit Fotos aus eigenen, datenschutzrechtlich kontrollierten Datenbanken. Dann sind auch Daten wie Bilder von Konzerten, aus dem Fußballstadion oder von Partys dabei, in deren Verwendung Betroffene nicht eingewilligt haben.
Beispiellose Überwachung
Die grundrechtlichen Bedenken liegen auf der Hand. Die biometrische Gesichtserkennung ist ein besonders tiefgreifender Eingriff in die Privatsphäre. Sie ermöglicht eine beispiellose staatliche Überwachung im öffentlichen Raum. Es ist zu befürchten, dass Menschen wegen der Gesichtserkennung öffentliche Orte meiden könnten oder sich nicht mehr trauen zu demonstrieren. Vor allem die zum Teil unklaren Definitionen und die fehlende gesetzliche Begrenzung staatlicher Zugriffe sind zu kritisieren. Dieses KI-System sollte deshalb nur bei Gefahren für schwerwiegende Rechtsgüter eingesetzt werden dürfen. Künstliche Intelligenz ist zudem weder neutral noch objektiv. KI-Modelle und Programme sind immer nur ein Spiegel der Daten, von denen sie lernen, und der Menschen, die sie programmieren. Sie übernehmen Vorurteile unserer Gesellschaft. Was passiert, wenn eine KI mit Texten oder Bildern trainiert wird, die Menschen einseitig zeigen, zum Beispiel Ärzte als alte Männer in weißen Kitteln? Das KI-System wird lernen, dass ein Arzt alt und männlich ist und einen weißen Kittel trägt. Was von dieser Norm abweicht, ist für die Systeme nicht relevant. KI-Programme müssen also nicht mal „absichtlich” diskriminieren. Sie haben es einfach nicht anders gelernt. Das betrifft vor allem Menschen und Gruppen, die unterrepräsentiert sind. Laut der 2024 in Kraft getretenen EU-KI-Verordnung müssen Unternehmen die Risiken ihrer KI-Modelle erfassen und ans KI-Amt der EU-Kommission melden. Außerdem sollen sie Maßnahmen entwickeln, die „in einem angemessenen Verhältnis“ zu den Risiken stehen. So sehr dieser risikobasierte Ansatz zu begrüßen ist, so unbestimmt sind die gesetzlichen Bestimmungen. Deshalb muss der entsprechende Leitfaden, der derzeit ausgearbeitet wird, die Risiken für die Gesellschaft und für die Grundrechte genauso in Betracht ziehen wie andere Risiken durch Cyber- und andere Angriffe oder einen vollständigen Kontrollverlust. Freiheitsrechte sind nicht nur ein Disclaimer für Reden, sondern müssen auch beim Einsatz von KI-Systemen konsequent berücksichtig werden.
Im Zeitalter digitaler Innovation spielt die künstliche Intelligenz (KI) eine immer wichtigere Rolle – für Unternehmen, für das tägliche Leben der Bürgerinnen und Bürger und für die Politik. Die Entscheidung, diese Technologie zu integrieren, ist nicht nur eine strategische Investition, sondern auch eine Antwort auf die wachsenden Anforderungen einer sich wandelnden Welt. Ist der Einsatz von KI also alternativlos? Meine Antwort: Die Befassung mit KI, mit ihren Chancen und Risiken, ist alternativlos. Die Befassung damit, wie sich KI zu den Freiheitsrechten der Bürgerinnen und Bürger verhält, wie Spannungen behandelt, aufgelöst oder zumindest in eine Balance gebracht werden können, ist unverzichtbar. Ein wesentliches Merkmal von KI-Systemen ist die Nutzung intelligenter Algorithmen und großer Datenmengen – auch von personenbezogenen Daten. Die meisten Bürgerinnen und Bürger stehen einer Datenverwendung beispielsweise für verbesserte medizinische Behandlungen positiv gegenüber. Auch in Bezug auf die Benutzung von Daten für mehr Sicherheit, die für den präventiven oder repressiven Gebrauch erhoben werden, haben sie weniger Bedenken. Und die Verwertung von Informationen aus sozialen Netzwerken gehört für viele Nutzerinnen und Nutzer zur täglichen Routine. Daten dienen als Basis für moderne KI-basierte Assistenzsysteme wie ChatGPT oder andere. Wenig bewusst machen sich Nutzende, dass es dabei sehr häufig auch um personenbezogene Daten und damit um Persönlichkeitsrechte des Einzelnen geht, also um die Privatsphäre, die informationelle Selbstbestimmung, um Gleichbehandlung und auch um geistiges Eigentum und Urheberrechte. Der selbstbestimmte Umgang mit KI-Systemen ist nicht leicht. Für die Nutzenden ist kaum noch nachvollziehbar, auf welche Datenquellen diese Systeme zugreifen und wie diese Daten dann (weiter-)verwendet werden. Auch die Benutzung sozialer Medien, gesteuert von Algorithmen auf der Grundlage von KI, kann nach mehreren Untersuchungen die Fähigkeit der kritischen Reflexion beeinträchtigen. Die Tatsache, dass soziale Medien teils bewusst die einseitige Information und Meinungsbildung vieler Nutzenden – besonders auch sehr junger Menschen – fördern, macht KI-Anwendung so gefährlich, denn diese Meinungsmanipulation gefährdet die Selbstbestimmung. Mehr Transparenz dieser KI-Prozesse, möglicherweise auch durch Kennzeichnung, muss eine Verpflichtung der Plattformbetreiber sein. KI-Systeme können tief in die Grundrechte eingreifen. Zum Beispiel eine staatliche Gesichtserkennung für die innere Sicherheit. Sie analysiert biometrische Merkmale wie Augenabstand, Kieferform oder Nasenlinien und gleicht diese mit Referenzdatenbanken ab. Bisher wird Gesichtserkennung in Deutschland meist nachträglich eingesetzt, etwa vom Bundeskriminalamt, der Bundespolizei, dem Zoll oder auch von Landespolizeibehörden. Aktuell plant das Bundesinnenministerium, sie so einzusetzen, dass ein Abgleich auch mit Bildern aus dem Internet erfolgen darf, nicht mehr nur mit Fotos aus eigenen, datenschutzrechtlich kontrollierten Datenbanken. Dann sind auch Daten wie Bilder von Konzerten, aus dem Fußballstadion oder von Partys dabei, in deren Verwendung Betroffene nicht eingewilligt haben.
Beispiellose Überwachung
Die grundrechtlichen Bedenken liegen auf der Hand. Die biometrische Gesichtserkennung ist ein besonders tiefgreifender Eingriff in die Privatsphäre. Sie ermöglicht eine beispiellose staatliche Überwachung im öffentlichen Raum. Es ist zu befürchten, dass Menschen wegen der Gesichtserkennung öffentliche Orte meiden könnten oder sich nicht mehr trauen zu demonstrieren. Vor allem die zum Teil unklaren Definitionen und die fehlende gesetzliche Begrenzung staatlicher Zugriffe sind zu kritisieren. Dieses KI-System sollte deshalb nur bei Gefahren für schwerwiegende Rechtsgüter eingesetzt werden dürfen. Künstliche Intelligenz ist zudem weder neutral noch objektiv. KI-Modelle und Programme sind immer nur ein Spiegel der Daten, von denen sie lernen, und der Menschen, die sie programmieren. Sie übernehmen Vorurteile unserer Gesellschaft. Was passiert, wenn eine KI mit Texten oder Bildern trainiert wird, die Menschen einseitig zeigen, zum Beispiel Ärzte als alte Männer in weißen Kitteln? Das KI-System wird lernen, dass ein Arzt alt und männlich ist und einen weißen Kittel trägt. Was von dieser Norm abweicht, ist für die Systeme nicht relevant. KI-Programme müssen also nicht mal „absichtlich” diskriminieren. Sie haben es einfach nicht anders gelernt. Das betrifft vor allem Menschen und Gruppen, die unterrepräsentiert sind. Laut der 2024 in Kraft getretenen EU-KI-Verordnung müssen Unternehmen die Risiken ihrer KI-Modelle erfassen und ans KI-Amt der EU-Kommission melden. Außerdem sollen sie Maßnahmen entwickeln, die „in einem angemessenen Verhältnis“ zu den Risiken stehen. So sehr dieser risikobasierte Ansatz zu begrüßen ist, so unbestimmt sind die gesetzlichen Bestimmungen. Deshalb muss der entsprechende Leitfaden, der derzeit ausgearbeitet wird, die Risiken für die Gesellschaft und für die Grundrechte genauso in Betracht ziehen wie andere Risiken durch Cyber- und andere Angriffe oder einen vollständigen Kontrollverlust. Freiheitsrechte sind nicht nur ein Disclaimer für Reden, sondern müssen auch beim Einsatz von KI-Systemen konsequent berücksichtig werden.















