Künstliche Intelligenz – eine Herausforderung für den Datenschutz

19 Mrz

  • in DSMS
  • von
  • 0

Heutzutage rückt die Thematik künstliche Intelligenz immer mehr in den Mittelpunkt – ob autonomes Fahren, in der Medizin, bei Staubsaugerrobotern, in fast jeder Software oder im Online Handel: KI wird bereits vielseitig eingesetzt. In unserem täglichen Leben ist KI bereits ein fester Bestandteil: So nutzt beispielsweise Amazon bei der Abschätzung der Anzahl benötigter Produkte maschinelles Lernen und kann somit die Endkosten für den Kunden reduzieren. Aber wie sieht es hier mit dem Datenschutz aus? Wollen wir, dass ein Staubsauger unsere Wohnung genau vermisst, um besser Staub zu saugen? Und was macht der Staubsauger mit den Informationen aus unserer Wohnung?

Künstliche Intelligenz arbeitet autonom, lernt ständig weiter und basiert somit auf dem Prinzip Machine Learning. Hierbei werden enorme Datenmengen, sogenannte Big Data, genutzt. Bei Hackerangriffen können somit auch Unmengen an Daten gestohlen werden. Zudem sehen Datenschützer die informationelle Selbstbestimmung als gefährdet an. Denn als Nutzer kann man nicht mehr sicher sein, welche Informationen gesammelt und wie diese weiterverarbeitet werden. Zum Beispiel können Smartphones, welche man tagtäglich mit sich trägt, abgehört werden, um Werbung für die jeweilige Person zu optimieren. Tauschen Unternehmen ihre Daten untereinander aus oder verknüpfen diese, können Rückschlüsse über sensible Personendaten, wie z. B. das Gehalt, getroffen werden.

Ein weiteres Problem besteht in der automatisierten Entscheidungsfindung durch KI, so genannte Algorithmic Decision Making Systems (ADM-Systeme). Durch die Automatisierung erstellt das System einen Algorithmus und somit auch Entscheidungen, welche nicht mehr vollkommen nachvollziehbar sind. So kann man sich nicht sicher sein, inwieweit ein Algorithmus fair entscheidet. Häufig werden ADM-Systeme in den Bereichen Verbrechensbekämpfung, Kreditwürdigkeit, Personalrecruiting oder auch der juristischen Entscheidungsfindung eingesetzt, um so viele Informationen wie möglich zu verarbeiten und ein neutrales Urteil zu fällen. Da sie jedoch nicht komplett durchschaubar sind, kann es zu ungewollter Diskriminierung oder Ungerechtigkeit bei der Behandlung von Personen führen.

Aber wie sehen diesbezüglich die Datenschutzrichtlinien aus? Die Europäische Datenschutzgrundverordnung (DSGVO) hat zwar in rechtlicher Hinsicht einige Ansätze erstellt, diese können aber durch viele Ausnahmen ignoriert werden. So greifen bereits einige Artikel nicht, wenn eine Person in einem KISystem als Entscheider zwischengeschaltet wird, um die Nachvollziehbarkeit von Entscheidungen zu gewährleisten. Strenge Anforderungen stellt die DSGVO bei der Verarbeitung personenbezogener Daten, wie es bei KI häufig der Fall ist. Nach Art. 35 DSGVO muss eine Datenschutzfolgeabschätzung (DSFA) vorgenommen werden. Zur Durchführung erstellt die Aufsichtsbehörde eine Auflistung von Verarbeitungsvorgängen, für die ein mutmaßlich hohes Risiko für Freiheiten und Rechte natürlicher Personen gilt. Hierbei müssen nicht nur Notwendigkeit und Verhältnismäßigkeit der Datenverarbeitung bewertet, sondern auch Pläne zur Abhilfe genannter Risiken erstellt werden. Auch gilt es Sicherheitsvorkehrungen und Maßnahmen zum Schutz personenbezogener Daten zu erstellen und nachzuweisen. Zusätzlich besteht die Pflicht einen Datenschutzbeauftragten einzusetzen werden. Trotz bereits vorhandener Regularien bleibt KI bis dato ein autonomes System, das nicht vollständig zu kontrollieren ist.

Urheberrecht: (c) Uli-B auf Fotolia.com

Share on Xing
0 Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.