Blog Bild

KI: Datenschutz, Ethik und „damals war sogar die Zukunft besser

Künstliche Intelligenz. Puh – ein schwammiger Begriff – was ist das eigentlich und: wie kann man den Begriff überhaupt herunterbrechen? Wagen wir einmal einen vorsichtigen Versuch. Das kann sehr heiter werden.

Wie funktioniert KI und was ist das eigentlich?

Grundsätzlich kann man sagen, dass künstliche Intelligenz menschlich kognitive Fähigkeiten imitiert, indem sie Informationen aus Eingabedaten erkennt und sortiert.

Sie ist ein Teilbereich der Informatik und bereits vollkommen in unserem Alltag angekommen: wir finden sie in der Navigation, der Sprachsteuerung, in Suchassistenten, in Spamfiltern, bei Kaufempfehlungen, in der Medikamentenentwicklung, bei der Diagnose von Krankheiten, in Wettervorhersagen, bei Big Data Analysen, in Gesichtserkennungen, bei Textgenerierungen, und, und, und, und – UND!

Die sogenannte „KI“ lernt von ihrer Umwelt – und dieses große, erhobene Modell „Umwelt“ besteht eigentlich … aus (unseren) Daten. Und da wird es spannend: wer entscheidet, welche Daten an die KI weitergegeben werden und: wer stellt diese wo zur Verfügung?

Man kann sich vorstellen: ziemlich sicher haben wir bei gewissen Entscheidungen keine aktive oder bewusste Einwilligung zur Verwendung unserer Daten gegeben – diese können aber (was für ein Spuk) trotzdem zum trainieren einer KI verwendet werden. Das kann – anonymisiert, oder nicht – beispielsweise unser  Surfverhalten sein … unsere Einkäufe im Internet … unsere Besuchszeit in einem Restaurant … Kartenzahlungen – und so weiter.

Jetzt haben wir doch im Jahr 2018 so großartig von der Einführung einer sogenannten „DSGVO“ – also Datenschutzgrundverordnung – gehört, die zum Schutz unserer Daten in Europa ab dem 25. Mai in Kraft getreten ist. Das recht interessante dabei: man kann sagen – zu diesem Zeitpunkt gab es zwar schon künstliche Intelligenz – jedoch blieb diese bei „Otto-Normalverbraucher:innen“ (wie mich) jedenfalls persönlich herzlich unentdeckt und für manche von uns gedanklich noch in Kinderschuhen.

Das stimmt jetzt zwar nicht ganz, weil: die „KI“-Geschichte beginnt eigentlich schon im 1956er Jahr, in welchem der Programmierer John McCarthy mit dem „Logic Theorist“ das erste KI-Programm der Welt geschrieben hat. Was hat der gemacht? Nun ja – dutzende, mathematischen Lehrsätze bewiesen und damit den Begriff „künstliche Intelligenz“ in die Welt gesetzt.

Aber zurück zu unseren Daten: das Problem ist nämlich, dass der Versuch einer DSGVO, den Schutz unserer Daten auch nur irgendwie in den Griff zu bekommen – die KI in ihrem Gesetzesentwurf noch nicht so richtig einbezogen hat.

Was sie zwar schon „kann“ – ein wenig abgekürzt und zusammengefasst:

KI und die DSGVO

Die Datenschutzgrundverordnung harmonisiert europaweit seit exakt 25. Mai 2018 die rechtlichen Vorgaben zur Verarbeitung personenbezogener Daten durch private Unternehmen und öffentliche Einrichtungen – mit dem Fokus auf Meldepflichten, Rechenschaftspflichten, Sicherstellung der Datensicherheit und Umsetzung von Betroffenenrechten. Als Beispiel: wenn’s ganz blöd kommt – müsste man bei einem recht schweren Verstoß bis zu 20 Millionen Euro Geldbuße zahlen und/oder auch Schadensersatzansprüche für Betroffene stellen.

Das ist alles ganz gut und schön. Wenn wir jetzt aber an die KI denken … ist nicht ganz klar: woher und wie diese die Daten beschafft werden, wer der/die Urheber:in ist – und warum die KI exakt diese Daten aus dem dann verfügbaren Datenpool zum Training ihrer Intelligenz gewählt hat.

Beispiele aus dem Leben

In Italien zum Beispiel, hat das bei Schüler:innen sehr beliebte (und bei Lehrer:innen und mir sehr unbeliebte) KI-Programm „ChatGPT“ Chatverläufe von User:innen einfach anderen User:innen ausgespielt. Zum Verständnis: ChatGPT ist eine Online KI (gegen Bezahlung und auch als Gratisversion), in der via Chat-Funktion Fragen oder Arbeitsanforderungen gestellt – und diese via KI über den Chat beantwortet werden. Ein für mich neues Wort aus dem letzten Jahr: das korrekte „briefen“ einer KI nennt man übrigens „prompten“. Wieder etwas dazu gelernt – und: dies ist übrigens gar nicht so einfach, da die KI dazu neigt oftmals auch ganz eigensinnige, unsinnige oder einfach falsche Information als Tatsache mit großem Selbstbewusstsein (ohne Bewusstsein) zur Verfügung stellt. Ganz schön frech.

Zurück zu Bella Italia: die italienische Regierung hat als Reaktion darauf diese Plattform in ihrem Land sperren lassen … bis sie dies ein paar Wochen später nach wenigen Zugeständnissen der ChatGPT Verantwortlichen und dem lauwarmen Versprechen auf „mehr Benehmen“ bezüglich Daten von Seiten des Unternehmens wieder zugelassen hat. Als effizienten Datenschutz kann man das also irgendwie nicht bezeichnen.

Fraglich ist auch, ob Papst Franziskus wirklich glücklich war, als neues Testimonial für die Marke Balenciaga zu fungieren – zugegeben: der weiße Mantel steht ihm ganz gut und ich bin voll darauf hineingefallen. „Jö, jetzt ist er endlich einmal richtig winterfest“. Naja.

Wie kann man sich schützen?

Was für eine Möglichkeit haben wir also, um unsere Daten vor diesem rollenden – exponentiell schneller werdenden Stein „KI“ zu schützen? Oder handelt es sich hierbei um eine sogenannte „Sisyphus-Aufgabe“ mit Schneeballeffekt? Der arme, arme Sisyphus.

Ich würde an dieser Stelle gerne auch fragen: möchte man (und wer ist „man“?) unsere Daten eigentlich schützen? Ohne groß zu spekulieren – wird den Datenschutz-Verantwortlichen durch Lobbies großer Monopole wahrscheinlich zusätzlich noch der ein oder andere riesige Stein in den Weg gelegt (werden). Aber zünden wir dieses Stück Holz auf diesem Stück Papier nicht an. Ist zwar kein Papier – aber gut.

Was jetzt ganz neu ist: unsere Datenschutz-Köpfe haben sich sehr wohl schon mit dem Thema Datenschutz und KI befasst und „AI Act“ sowie die „KI Haftungsrichtline“ konzipiert.

Kurz gefasst, kann man unter „AI Act“ den Ansatz der EU für künstliche Intelligenz verstehen,
der sich „auf Exzellenz und Vertrauen konzentriert – mit dem Ziel, die Forschungs- und Industrie-kapazitäten zu stärken und Gleichzeitig Sicherheit und Grundrechte zu gewährleisten.“*

Das bedeutet ein bisschen eingehender: die KI-Verordnung sieht einen risikobasierten Ansatz vor, der die Unterscheidung zwischen „keinem Risiko“ oder „hohem Risiko“ über die Koppelung mit den Compliance- und Informationspflichten entscheiden lässt.


*Quelle: https://digital-strategy.ec.europa.eu/de/policies/european-approach-artificial-intelligence

Was zum Beispiel (und das ist sehr gut so) komplett verboten werden soll: Social Scoring (Sozialkreditsystem – darauf gehe ich weiter unten näher ein) oder Teile von biometrischer Videoüberwachung.

Die KI-Haftungsrichtlinie schreibt wiederum vor, dass Quellen und Verantwortliche zurückverfolgt – und somit gewisse Transparenzen zu Verantwortlichkeiten bzw. Haftung geschaffen werden können.

„Almost best practice“ im Umgang mit unseren Daten nicht nur mit KI würden also unter anderem auch folgende Punkte streng berücksichtigen bzw. beachten (eine erste Checklist – teilweise auch ergänzend zur DSGVO):

  • Anonymisierung von Daten
  • Datenschutzerklärungen und Zustimmung
  • Datenminimierung
  • Datenschutz-Folgenabschätzung
  • Verschlüsselung, Differential Privacy & Co.
  • Auditierbarkeit und Erklärbarkeit
  • Einschränkung des Datenzugriffs
  • Automatische Löschung
  • Faire Algorithmen
  • Kontinuierliche Überwachung und Anpassung
  • Sicherheit gegen Angriffe
  • Transparenz in der Verwendung von Daten

Das ist alles auch sehr gut und schön – wenn wir jetzt aber von einer KI wie „Alexa“ (Anmerkung: so heißt der cloudbasierte Sprachdienst bei Amazon) bei uns Zuhause ausgehen – und diese jetzt künstliche Intelligenz integriert hat, uns also täglich zuhört, dazulernt – und uns kennenlernt: wie klar ist es dann, wohin das Audio meines Frühstücksgespräch geht – und kann ich das überhaupt in unendlichen Absätzen der Datenschutzerklärung von Seiten des Unternehmens herauslesen oder überhaupt begreifen?

Verschachtelung der Erklärungen

Die Sache ist nämlich die: oftmals sind diese Erklärungen schwammig bzw. ausufernd verschachtelt geschrieben, dass man eigentlich zu einem Großteil nicht wirklich Chance hat, herauszulesen, was mit meinen Daten letztendlich wirklich passiert oder wem oder was ich damit eigentlich zustimme. Ich bin mir sicher, dass Unternehmen Ihrer Informationspflicht bei Datenschutzerklärungen nach bestem Gewissen nachgehen, jedoch als übersichtlich und deutlich kann ich in sehr vielen Fällen in persönlicher Erfahrung nur etwas ganz anderes bezeichnen.  

Es ist nämlich höchstwahrscheinlich – und logischerweise nicht im Sinn eines Großunternehmens wie beispielsweise Amazon, keine Daten von uns zu verwenden bzw. weiterzugeben – warum auch? Es geht ja um Profit – und den kann man sicherlich stetig steigern, indem man maßgeschneiderte Produkte an seine Kund:innen verkauft, bzw. diese durch „Kennenlernen“ anbietet.

Jetzt möchte ich nicht ausschließlich Amazon listen – vermeintlich „gemeine“ Datensammler befinden sich heute eigentlich überall und nirgendwo. Braucht man nur zu googeln.

Was ich auch nicht möchte: Schwarzmalen! Wie jede Erfindung … kommt es eigentlich darauf an, WAS man damit macht – und WOHIN die Reise dadurch geht.

Die Entdeckung der Uranspaltung durch Otto Hahn und Fritz Straßmann hat ein neues Zeitalter in der Geschichte der Menschheit eröffnet – und galt als große, positive Errungenschaft … war sicherlich in ihrem Ursprung nicht dazu gedacht, Massenvernichtungswaffen zu erzeugen, die ganze Nationen nachhaltig auslöschen und Städte dem Erdboden gleichmachen können.

Positive Ausblicke und Chancen

Künstliche Intelligenz birgt große Chancen – meiner Meinung nach – beispielsweise vor allem in der Medizin. Gewisse Algorithmen erkennen zum Beispiel Lungenkrebs oder Schlaganfälle anhand von CT-Scans. Sie liefern Indikatoren für das Risiko eines plötzlichen Herztodes oder anderen Herzerkrankungen anhand von Elektrokardiogrammen und Herz-MRT-Aufnahmen.

Meine Nichte hat mir unlängst erzählt, dass nun sogar ein Querschnittgelähmter mit Hilfe von KI wieder gehend gemacht werden konnte – nach Recherche, habe ich tatsächlich einen Artikel im Internet gefunden, der über ein Projekt in Zusammenarbeit von Schweiz und Frankreich schreibt, bei welchem Implantate bei einem Mann die Kommunikation zwischen Gehirn und Rückenmark wieder hergestellt – und diesen wieder gehend gemacht haben. Das alles KI-basiert.

Ich sehe mit großer Hoffnung vor allem auf die Krebsforschung, bei der die KI – so denke ich – sehr, SEHR nützlich sein kann, sie schon ist und hoffentlich noch wesentlicher sein wird.

KI erleichtert unseren Alltag sicherlich auch für uns unbewusst – seien es Plug-Ins in meinen Grafik-Programmen – oder auch die Übersetzung von Portugiesisch auf Deutsch. Wie gesagt – es ist alles immer eine Sache, WIE genutzt wird und WO die Reise dadurch hingeht.

Sozialkreditsysteme und andere Horrorvorstellungen

Wo die Reise KI-technisch, meiner Meinung nach, nicht hingehen sollte, ist nach China: hier hat die Regierung ein „Sozialkreditsystem“ ins Leben gerufen, bei welchem KI-basiert das Verhalten der Bürger:innen bewertet und überwacht wird – das System sammelt Daten über das Verhalten der Menschen und bewertet diese anhand eines Punktesystems, das auf ihrem Sozialverhalten, ihrer finanziellen Kreditwürdigkeit und ihren politischen Überzeugungen stützt. Nicht zu vergessen, dass diese wahrscheinlich oder ziemlich sicher auch gesundheitliche Daten zur Bewertung heranzieht und mich so auch aus Versicherungen ausschließen könnte.

Ich möchte mir nicht vorstellen, dass mein potenzieller Arbeitgeber zukünftig einfach abrufen kann, was ich vor zehn bis 15 Jahren so alles unternommen habe. (So schlimm ist es nicht – und ich hatte dies damals auch selbst, ganz freiwillig über die wunderbare Plattform „Facebook“ ungeraum ungeniert preisgegeben – lila Haare mit Mikrofon auf der Bühne und schwarze Doc Martens mit Stahlkappen an den Füßen zum Beispiel – wie gut, dass diese Zeit hinter mir liegt. Puh).

Einen Fokus sollten wir als Gesellschaft jedenfalls darauf legen, dass wir weiterhin kritisch bleiben – sogenannte „Tatsachen“ in ihren Grundfesten hinterfragen und darüber nachdenken. Ich möchte es keiner KI überlassen, Stereotype zu befeuern und durch „falsches Lernen“ oder „gezielt (für mich) falsches Lernen“ Hass und Radikale zu schüren. Wir wissen nämlich noch immer in wahrscheinlich 99% der Fällen nicht, wer wo was einspeist und wie genau die KI eigentlich entscheidet bzw. welchem Algorithmus diese folgt?

Künstliche Intelligenz sollte uns zukünftig (weiterhin) als Unterstützung und Bewältigung unseres Alltags dienen und nicht zur Waffe werden, die sich „gegen ihre Schöpfer:innen richtet“. Sicherlich wird die Zukunft nicht wie der Science-Fiction Blockbuster „iRobot“ aussehen – jedoch sollten wir im Auge behalten, dass wir da etwas in die Welt gesetzt haben, was wir selbst eigentlich noch nicht so ganz begreifen und wahrscheinlich nur sehr wenige das Ausmaß des Potentials wirklich kennen und begreifen bzw. dann auch nutzen können – und das, so hoffe ich – sollten nicht die „Falschen“ sein. Sonst kann man sich dem alten Schinken passenderweise nur immer wieder leider gerne bedienen:

„Damals war sogar die Zukunft besser“.

adaptiert aus dem Original von Karl Valentin: „Damals war alles besser, sogar die Zukunft.“

Die Geschichte von Künstlicher Intelligenz kannst du hier nachlesen: