Essay

Angriff auf unsere Freiheit

Künstliche Intelligenz nutzt ungeheure Datenmengen aus unserem persönlichen Umfeld. Sabine Leutheusser-Schnarrenberger über KI-Risiken für Privatsphäre, Selbstbestimmung und Grundrechte.

Sabine Leutheusser-Schnarrenberger
 und
Essay

Angriff auf unsere Freiheit

Künstliche Intelligenz nutzt ungeheure Datenmengen aus unserem persönlichen Umfeld. Sabine Leutheusser-Schnarrenberger über KI-Risiken für Privatsphäre, Selbstbestimmung und Grundrechte.

Sabine Leutheusser-Schnarrenberger

Im Zeitalter digitaler Innovation spielt die künstliche Intelligenz (KI) eine immer wichtigere Rolle – für Unternehmen, für das tägliche Leben der Bürgerinnen und Bürger und für die Politik. Die Entscheidung, diese Technologie zu integrieren, ist nicht nur eine strategische Investition, sondern auch eine Antwort auf die wachsenden Anforderungen einer sich wandelnden Welt. Ist der Einsatz von KI also alternativlos? Meine Antwort: Die Befassung mit KI, mit ihren Chancen und Risiken, ist alternativlos. Die Befassung damit, wie sich KI zu den Freiheitsrechten der Bürgerinnen und Bürger verhält, wie Spannungen behandelt, aufgelöst oder zumindest in eine Balance gebracht werden können, ist unverzichtbar. Ein wesentliches Merkmal von KI-Systemen ist die Nutzung intelligenter Algorithmen und großer Datenmengen – auch von personenbezogenen Daten. Die meisten Bürgerinnen und Bürger stehen einer Datenverwendung beispielsweise für verbesserte medizinische Behandlungen positiv gegenüber. Auch in Bezug auf die Benutzung von Daten für mehr Sicherheit, die für den präventiven oder repressiven Gebrauch erhoben werden, haben sie weniger Bedenken. Und die Verwertung von Informationen aus sozialen Netzwerken gehört für viele Nutzerinnen und Nutzer zur täglichen Routine. Daten dienen als Basis für moderne KI-basierte Assistenzsysteme wie ChatGPT oder andere. Wenig bewusst machen sich Nutzende, dass es dabei sehr häufig auch um personenbezogene Daten und damit um Persönlichkeitsrechte des Einzelnen geht, also um die Privatsphäre, die informationelle Selbstbestimmung, um Gleichbehandlung und auch um geistiges Eigentum und Urheberrechte. Der selbstbestimmte Umgang mit KI-Systemen ist nicht leicht. Für die Nutzenden ist kaum noch nachvollziehbar, auf welche Datenquellen diese Systeme zugreifen und wie diese Daten dann (weiter-)verwendet werden. Auch die Benutzung sozialer Medien, gesteuert von Algorithmen auf der Grundlage von KI, kann nach mehreren Untersuchungen die Fähigkeit der kritischen Reflexion beeinträchtigen. Die Tatsache, dass soziale Medien teils bewusst die einseitige Information und Meinungsbildung vieler Nutzenden – besonders auch sehr junger Menschen – fördern, macht KI-Anwendung so gefährlich, denn diese Meinungsmanipulation gefährdet die Selbstbestimmung. Mehr Transparenz dieser KI-Prozesse, möglicherweise auch durch Kennzeichnung, muss eine Verpflichtung der Plattformbetreiber sein. KI-Systeme können tief in die Grundrechte eingreifen. Zum Beispiel eine staatliche Gesichtserkennung für die innere Sicherheit. Sie analysiert biometrische Merkmale wie Augenabstand, Kieferform oder Nasenlinien und gleicht diese mit Referenzdatenbanken ab. Bisher wird Gesichtserkennung in Deutschland meist nachträglich eingesetzt, etwa vom Bundeskriminalamt, der Bundespolizei, dem Zoll oder auch von Landespolizeibehörden. Aktuell plant das Bundesinnenministerium, sie so einzusetzen, dass ein Abgleich auch mit Bildern aus dem Internet erfolgen darf, nicht mehr nur mit Fotos aus eigenen, datenschutzrechtlich kontrollierten Datenbanken. Dann sind auch Daten wie Bilder von Konzerten, aus dem Fußballstadion oder von Partys dabei, in deren Verwendung Betroffene nicht eingewilligt haben.

Beispiellose Überwachung

Die grundrechtlichen Bedenken liegen auf der Hand. Die biometrische Gesichtserkennung ist ein besonders tiefgreifender Eingriff in die Privatsphäre. Sie ermöglicht eine beispiellose staatliche Überwachung im öffentlichen Raum. Es ist zu befürchten, dass Menschen wegen der Gesichtserkennung öffentliche Orte meiden könnten oder sich nicht mehr trauen zu demonstrieren. Vor allem die zum Teil unklaren Definitionen und die fehlende gesetzliche Begrenzung staatlicher Zugriffe sind zu kritisieren. Dieses KI-System sollte deshalb nur bei Gefahren für schwerwiegende Rechtsgüter eingesetzt werden dürfen. Künstliche Intelligenz ist zudem weder neutral noch objektiv. KI-Modelle und Programme sind immer nur ein Spiegel der Daten, von denen sie lernen, und der Menschen, die sie programmieren. Sie übernehmen Vorurteile unserer Gesellschaft. Was passiert, wenn eine KI mit Texten oder Bildern trainiert wird, die Menschen einseitig zeigen, zum Beispiel Ärzte als alte Männer in weißen Kitteln? Das KI-System wird lernen, dass ein Arzt alt und männlich ist und einen weißen Kittel trägt. Was von dieser Norm abweicht, ist für die Systeme nicht relevant. KI-Programme müssen also nicht mal „absichtlich” diskriminieren. Sie haben es einfach nicht anders gelernt. Das betrifft vor allem Menschen und Gruppen, die unterrepräsentiert sind. Laut der 2024 in Kraft getretenen EU-KI-Verordnung müssen Unternehmen die Risiken ihrer KI-Modelle erfassen und ans KI-Amt der EU-Kommission melden. Außerdem sollen sie Maßnahmen entwickeln, die „in einem angemessenen Verhältnis“ zu den Risiken stehen. So sehr dieser risikobasierte Ansatz zu begrüßen ist, so unbestimmt sind die gesetzlichen Bestimmungen. Deshalb muss der entsprechende Leitfaden, der derzeit ausgearbeitet wird, die Risiken für die Gesellschaft und für die Grundrechte genauso in Betracht ziehen wie andere Risiken durch Cyber- und andere Angriffe oder einen vollständigen Kontrollverlust. Freiheitsrechte sind nicht nur ein Disclaimer für Reden, sondern müssen auch beim Einsatz von KI-Systemen konsequent berücksichtig werden.

Im Zeitalter digitaler Innovation spielt die künstliche Intelligenz (KI) eine immer wichtigere Rolle – für Unternehmen, für das tägliche Leben der Bürgerinnen und Bürger und für die Politik. Die Entscheidung, diese Technologie zu integrieren, ist nicht nur eine strategische Investition, sondern auch eine Antwort auf die wachsenden Anforderungen einer sich wandelnden Welt. Ist der Einsatz von KI also alternativlos? Meine Antwort: Die Befassung mit KI, mit ihren Chancen und Risiken, ist alternativlos. Die Befassung damit, wie sich KI zu den Freiheitsrechten der Bürgerinnen und Bürger verhält, wie Spannungen behandelt, aufgelöst oder zumindest in eine Balance gebracht werden können, ist unverzichtbar. Ein wesentliches Merkmal von KI-Systemen ist die Nutzung intelligenter Algorithmen und großer Datenmengen – auch von personenbezogenen Daten. Die meisten Bürgerinnen und Bürger stehen einer Datenverwendung beispielsweise für verbesserte medizinische Behandlungen positiv gegenüber. Auch in Bezug auf die Benutzung von Daten für mehr Sicherheit, die für den präventiven oder repressiven Gebrauch erhoben werden, haben sie weniger Bedenken. Und die Verwertung von Informationen aus sozialen Netzwerken gehört für viele Nutzerinnen und Nutzer zur täglichen Routine. Daten dienen als Basis für moderne KI-basierte Assistenzsysteme wie ChatGPT oder andere. Wenig bewusst machen sich Nutzende, dass es dabei sehr häufig auch um personenbezogene Daten und damit um Persönlichkeitsrechte des Einzelnen geht, also um die Privatsphäre, die informationelle Selbstbestimmung, um Gleichbehandlung und auch um geistiges Eigentum und Urheberrechte. Der selbstbestimmte Umgang mit KI-Systemen ist nicht leicht. Für die Nutzenden ist kaum noch nachvollziehbar, auf welche Datenquellen diese Systeme zugreifen und wie diese Daten dann (weiter-)verwendet werden. Auch die Benutzung sozialer Medien, gesteuert von Algorithmen auf der Grundlage von KI, kann nach mehreren Untersuchungen die Fähigkeit der kritischen Reflexion beeinträchtigen. Die Tatsache, dass soziale Medien teils bewusst die einseitige Information und Meinungsbildung vieler Nutzenden – besonders auch sehr junger Menschen – fördern, macht KI-Anwendung so gefährlich, denn diese Meinungsmanipulation gefährdet die Selbstbestimmung. Mehr Transparenz dieser KI-Prozesse, möglicherweise auch durch Kennzeichnung, muss eine Verpflichtung der Plattformbetreiber sein. KI-Systeme können tief in die Grundrechte eingreifen. Zum Beispiel eine staatliche Gesichtserkennung für die innere Sicherheit. Sie analysiert biometrische Merkmale wie Augenabstand, Kieferform oder Nasenlinien und gleicht diese mit Referenzdatenbanken ab. Bisher wird Gesichtserkennung in Deutschland meist nachträglich eingesetzt, etwa vom Bundeskriminalamt, der Bundespolizei, dem Zoll oder auch von Landespolizeibehörden. Aktuell plant das Bundesinnenministerium, sie so einzusetzen, dass ein Abgleich auch mit Bildern aus dem Internet erfolgen darf, nicht mehr nur mit Fotos aus eigenen, datenschutzrechtlich kontrollierten Datenbanken. Dann sind auch Daten wie Bilder von Konzerten, aus dem Fußballstadion oder von Partys dabei, in deren Verwendung Betroffene nicht eingewilligt haben.

Beispiellose Überwachung

Die grundrechtlichen Bedenken liegen auf der Hand. Die biometrische Gesichtserkennung ist ein besonders tiefgreifender Eingriff in die Privatsphäre. Sie ermöglicht eine beispiellose staatliche Überwachung im öffentlichen Raum. Es ist zu befürchten, dass Menschen wegen der Gesichtserkennung öffentliche Orte meiden könnten oder sich nicht mehr trauen zu demonstrieren. Vor allem die zum Teil unklaren Definitionen und die fehlende gesetzliche Begrenzung staatlicher Zugriffe sind zu kritisieren. Dieses KI-System sollte deshalb nur bei Gefahren für schwerwiegende Rechtsgüter eingesetzt werden dürfen. Künstliche Intelligenz ist zudem weder neutral noch objektiv. KI-Modelle und Programme sind immer nur ein Spiegel der Daten, von denen sie lernen, und der Menschen, die sie programmieren. Sie übernehmen Vorurteile unserer Gesellschaft. Was passiert, wenn eine KI mit Texten oder Bildern trainiert wird, die Menschen einseitig zeigen, zum Beispiel Ärzte als alte Männer in weißen Kitteln? Das KI-System wird lernen, dass ein Arzt alt und männlich ist und einen weißen Kittel trägt. Was von dieser Norm abweicht, ist für die Systeme nicht relevant. KI-Programme müssen also nicht mal „absichtlich” diskriminieren. Sie haben es einfach nicht anders gelernt. Das betrifft vor allem Menschen und Gruppen, die unterrepräsentiert sind. Laut der 2024 in Kraft getretenen EU-KI-Verordnung müssen Unternehmen die Risiken ihrer KI-Modelle erfassen und ans KI-Amt der EU-Kommission melden. Außerdem sollen sie Maßnahmen entwickeln, die „in einem angemessenen Verhältnis“ zu den Risiken stehen. So sehr dieser risikobasierte Ansatz zu begrüßen ist, so unbestimmt sind die gesetzlichen Bestimmungen. Deshalb muss der entsprechende Leitfaden, der derzeit ausgearbeitet wird, die Risiken für die Gesellschaft und für die Grundrechte genauso in Betracht ziehen wie andere Risiken durch Cyber- und andere Angriffe oder einen vollständigen Kontrollverlust. Freiheitsrechte sind nicht nur ein Disclaimer für Reden, sondern müssen auch beim Einsatz von KI-Systemen konsequent berücksichtig werden.

Im Zeitalter digitaler Innovation spielt die künstliche Intelligenz (KI) eine immer wichtigere Rolle – für Unternehmen, für das tägliche Leben der Bürgerinnen und Bürger und für die Politik. Die Entscheidung, diese Technologie zu integrieren, ist nicht nur eine strategische Investition, sondern auch eine Antwort auf die wachsenden Anforderungen einer sich wandelnden Welt. Ist der Einsatz von KI also alternativlos? Meine Antwort: Die Befassung mit KI, mit ihren Chancen und Risiken, ist alternativlos. Die Befassung damit, wie sich KI zu den Freiheitsrechten der Bürgerinnen und Bürger verhält, wie Spannungen behandelt, aufgelöst oder zumindest in eine Balance gebracht werden können, ist unverzichtbar. Ein wesentliches Merkmal von KI-Systemen ist die Nutzung intelligenter Algorithmen und großer Datenmengen – auch von personenbezogenen Daten. Die meisten Bürgerinnen und Bürger stehen einer Datenverwendung beispielsweise für verbesserte medizinische Behandlungen positiv gegenüber. Auch in Bezug auf die Benutzung von Daten für mehr Sicherheit, die für den präventiven oder repressiven Gebrauch erhoben werden, haben sie weniger Bedenken. Und die Verwertung von Informationen aus sozialen Netzwerken gehört für viele Nutzerinnen und Nutzer zur täglichen Routine. Daten dienen als Basis für moderne KI-basierte Assistenzsysteme wie ChatGPT oder andere. Wenig bewusst machen sich Nutzende, dass es dabei sehr häufig auch um personenbezogene Daten und damit um Persönlichkeitsrechte des Einzelnen geht, also um die Privatsphäre, die informationelle Selbstbestimmung, um Gleichbehandlung und auch um geistiges Eigentum und Urheberrechte. Der selbstbestimmte Umgang mit KI-Systemen ist nicht leicht. Für die Nutzenden ist kaum noch nachvollziehbar, auf welche Datenquellen diese Systeme zugreifen und wie diese Daten dann (weiter-)verwendet werden. Auch die Benutzung sozialer Medien, gesteuert von Algorithmen auf der Grundlage von KI, kann nach mehreren Untersuchungen die Fähigkeit der kritischen Reflexion beeinträchtigen. Die Tatsache, dass soziale Medien teils bewusst die einseitige Information und Meinungsbildung vieler Nutzenden – besonders auch sehr junger Menschen – fördern, macht KI-Anwendung so gefährlich, denn diese Meinungsmanipulation gefährdet die Selbstbestimmung. Mehr Transparenz dieser KI-Prozesse, möglicherweise auch durch Kennzeichnung, muss eine Verpflichtung der Plattformbetreiber sein. KI-Systeme können tief in die Grundrechte eingreifen. Zum Beispiel eine staatliche Gesichtserkennung für die innere Sicherheit. Sie analysiert biometrische Merkmale wie Augenabstand, Kieferform oder Nasenlinien und gleicht diese mit Referenzdatenbanken ab. Bisher wird Gesichtserkennung in Deutschland meist nachträglich eingesetzt, etwa vom Bundeskriminalamt, der Bundespolizei, dem Zoll oder auch von Landespolizeibehörden. Aktuell plant das Bundesinnenministerium, sie so einzusetzen, dass ein Abgleich auch mit Bildern aus dem Internet erfolgen darf, nicht mehr nur mit Fotos aus eigenen, datenschutzrechtlich kontrollierten Datenbanken. Dann sind auch Daten wie Bilder von Konzerten, aus dem Fußballstadion oder von Partys dabei, in deren Verwendung Betroffene nicht eingewilligt haben.

Beispiellose Überwachung

Die grundrechtlichen Bedenken liegen auf der Hand. Die biometrische Gesichtserkennung ist ein besonders tiefgreifender Eingriff in die Privatsphäre. Sie ermöglicht eine beispiellose staatliche Überwachung im öffentlichen Raum. Es ist zu befürchten, dass Menschen wegen der Gesichtserkennung öffentliche Orte meiden könnten oder sich nicht mehr trauen zu demonstrieren. Vor allem die zum Teil unklaren Definitionen und die fehlende gesetzliche Begrenzung staatlicher Zugriffe sind zu kritisieren. Dieses KI-System sollte deshalb nur bei Gefahren für schwerwiegende Rechtsgüter eingesetzt werden dürfen. Künstliche Intelligenz ist zudem weder neutral noch objektiv. KI-Modelle und Programme sind immer nur ein Spiegel der Daten, von denen sie lernen, und der Menschen, die sie programmieren. Sie übernehmen Vorurteile unserer Gesellschaft. Was passiert, wenn eine KI mit Texten oder Bildern trainiert wird, die Menschen einseitig zeigen, zum Beispiel Ärzte als alte Männer in weißen Kitteln? Das KI-System wird lernen, dass ein Arzt alt und männlich ist und einen weißen Kittel trägt. Was von dieser Norm abweicht, ist für die Systeme nicht relevant. KI-Programme müssen also nicht mal „absichtlich” diskriminieren. Sie haben es einfach nicht anders gelernt. Das betrifft vor allem Menschen und Gruppen, die unterrepräsentiert sind. Laut der 2024 in Kraft getretenen EU-KI-Verordnung müssen Unternehmen die Risiken ihrer KI-Modelle erfassen und ans KI-Amt der EU-Kommission melden. Außerdem sollen sie Maßnahmen entwickeln, die „in einem angemessenen Verhältnis“ zu den Risiken stehen. So sehr dieser risikobasierte Ansatz zu begrüßen ist, so unbestimmt sind die gesetzlichen Bestimmungen. Deshalb muss der entsprechende Leitfaden, der derzeit ausgearbeitet wird, die Risiken für die Gesellschaft und für die Grundrechte genauso in Betracht ziehen wie andere Risiken durch Cyber- und andere Angriffe oder einen vollständigen Kontrollverlust. Freiheitsrechte sind nicht nur ein Disclaimer für Reden, sondern müssen auch beim Einsatz von KI-Systemen konsequent berücksichtig werden.

Weitere Themen der Ausgabe

Buchrezension

Kampf um den Rechtsstaat

Der Frankfurter Rechts- und Sozialwissenschaftler Maximilian Pichl analysiert, wie der Rechtsstaat langsam erodiert. Auch in Deutschland.

Buchrezension

Anatomie einer Weltanschauung

Tomer Persico liefert auf 124 Seiten eine messerscharfe Anatomie des Liberalismus: von den theoretischen Wurzeln bis zu aktuellen Herausforderungen. Sein Fazit aus Israel: Liberale Werte sind tief verankert und funktionieren.

Interview

Anreize statt Zwang, Verbote und Quoten

Liberale Marktwirtschaft und Umweltschutz sind ein starkes Duo, findet der Verein Ökologische Marktwirtschaft. Co-Vorsitzende Helena Herzig erzählt, wie sie die Idee als Trend im politischen Diskurs verankern will.

Interview

Die Rente nimmt den Jungen die Luft

Bald ist jeder dritte Euro im Bundeshauhalt durch Zuschüsse zur Rente gebunden. Diese Ungerechtigkeit blockiert Investitionen in die Zukunft, meint Christian Hagist.

Essay

Geostrategische Globalisierung

Mit Trumps Protektionismus beginnt ein neues Zeitalter für die Weltwirtschaft. Deutschland und Europa müssen pragmatisch, aber prinzipienfest antworten. Neue Partner sind nötig und willkommen.

Liberale Gebote

Es liegt an dir!

Empfehlungen für das richtige Handeln gibt es viele. Doch um das Land wieder voranzubringen, müssen wir alle aktiv werden. Liberale Ansätze geben Orientierung - hier sind unsere 10 Gebote!

Feature

Biotech und Bosporus

Deutschtürkische Unternehmen sind zu einem wichtigen Wirtschaftsfaktor geworden. Was sie auszeichnet, sind Dynamik, Risikobereitschaft und ihre Deutschlandkompetenz.

Editorial

Bismarck-Moment für Deutschland

Deutschland 2025: Festgefahren zwischen Wirtschaftswandel, demografischem Druck und geopolitischen Krisen. Der Staat überfordert, die Kluft zwischen Anspruch und Wirklichkeit wächst.

Pro & Contra

Politische Steuerung oder Freiheit der Wirtschaft?

Die Bundesregierung hat ein Bundestariftreuegesetz beschlossen, nach dem öffentliche Aufträge nur noch an Unternehmen gehen, die ihre Beschäftigten nach Tarif bezahlen. Was die einen als Weg zu einem ausgeglichenen Wettbewerb betrachten, ist für die anderen ein Anti-Wachstumsgesetz.

10 Fragen an ...

Nicole Büttner

Seit Marcel Proust sind Fragebögen das beste Mittel, um Persönlichkeiten in aller Kürze kennenzulernen. Liberal bittet an dieser Stelle zum schnellen Gespräch.

Buchrezension

Radikale Wiederbelebung

Der Liberalismus wirkt intellektuell erschöpft. Ulrich Macholds Sammelband „Die Radikale Mitte" sucht nach Antworten für eine orientierungslose Bewegung. Sven Gerst bespricht das Buch.

Interview

Radikal bürgerlich – für die Freiheit

Weniger Staat, eine stärkere Wirtschaft und bessere Chancen für die Menschen – für diese liberale Themen kämpfen viele Menschen in Deutschland. Zum Beispiel Hans-Ulrich Rülke in Baden-Württemberg.

Feature

„Ich werde den Wohlstand meiner Eltern nicht halten können“ – Mythos oder Realität?

Deutschlands Wirtschaft gilt als robust. Doch viele junge Menschen erleben das Gegenteil: steigende Lebenshaltungskosten, stagnierende Reallöhne und unerschwingliche Immobilienpreise.

Feature

Auf der Langstrecke

Kleine und mittlere Unternehmen wollen von den Rüstungsmilliarden profitieren. Doch es dauert viele Jahre, um Teil der Sicherheits- und Verteidigungsindustrie zu werden.

Feature

Alte Tugenden, neuer Mut

Krisen und Kosten: Der deutsche Mittelstand steht unter Druck und muss auf zahlreiche Herausforderungen zeitgleich reagieren. Doch einige familiengeführte Unternehmen stemmen sich mit Resilienz und Innovationsgeist gegen die schlechte Stimmung.

Essay

Angriff auf unsere Freiheit

Künstliche Intelligenz nutzt ungeheure Datenmengen aus unserem persönlichen Umfeld. Sabine Leutheusser-Schnarrenberger über KI-Risiken für Privatsphäre, Selbstbestimmung und Grundrechte.