IT

Der künstlichen Intelligenz Grenzen setzen

07. März 2024

Wenn KI-Systeme Entscheidungen lediglich auf Grundlage von Daten und Algorithmen treffen, führt dies zu ethisch problematischen Situationen

Ende November präsentierten 18 Staaten das erste detaillierte Abkommen zum Schutz vor dem Missbrauch von künstlicher Intelligenz. In dem 20-seitigen Dokument kamen die Unterzeichner*innen überein, dass Unternehmen, die KI entwerfen und nutzen, diese so entwickeln und einsetzen müssen, dass Kund*innen und die breite Öffentlichkeit vor Missbrauch geschützt sind. Muss künstliche Intelligenz - zusätzlich zu Gesetzen und internationalen Übereinkommen - auch menschlichen Werten und moralischen Ansprüche gerecht werden? „Wir sollten den höchstmöglichen Anspruch an KI-Systeme stellen, damit bei ihrer Entwicklung ethische Grundsätze berücksichtigt werden“, fordert Sarah Spiekermann-Hoff, Professorin am WU Institut für Wirtschaftsinformatik und Gesellschaft. Es gibt bereits erste Versuche der großen KI-Betreiber*innen, dies in die Praxis umzusetzen. Eine Gruppe von AI-Entwickler*innen hat eine Chat GPT-Alternative namens Claude entwickelt, die mit Constitutional AI versucht, die Prinzipien der Menschenrechte in den Gesprächsdialogen zu respektieren. Weiters nutzen Unternehmen bereits bestimmte Verfahren, damit bei der Entwicklung auf menschliche Werte und rechtliche Prinzipien Rücksicht genommen werde. Laut Spiekermann-Hoff gebe es dies bereits in vielen Bereichen, von der Lebensmittel- bis zur Automobilproduktion.

Missbräuchliche Verwendung

Auch wenn die KI so gut wie möglich entworfen wurde, ist es keine Gewähr dafür, dass sie nicht missbräuchlich verwendet wird. Durch die Verbreitung und Zurverfügungstellung von KI-Entwicklungstools, können bösartige Kräfte sich dieser Macht des Computers bedienen und beispielsweise gefährliche KI in sozialen Netzwerken anbieten. „Das lässt sich in einer Internetkultur, die Anonymität und die Nicht-Authentifizierung von Teilnehmerinnen als Güteeigenschaft betrachtet, nur schwer verhindern“, argumentiert Spiekermann-Hoff. „Es kann sich heute jeder anonym oder mit einem Pseudonym ohne große Authentifizierung in den sozialen Netzwerken tummeln und mit entsprechendem technischem Know-how bösartige KI, manipulative KI-Ergebnisse, wie beispielsweise Deep Fake-Bilder, verbreiten, ohne dass er oder sie dabei erwischt werden.“ Laut der Wissenschaftlerin wäre eine Klarnamen-Pflicht der erste Schritt, um mehr Verantwortung in diese Plattformen zu bekommen, aber das sei ein sehr umstrittenes Thema. Denn in der Folge würde es in vielen nichtdemokratisch geführten Staaten sehr gefährlich werden, Netzwerke der Demokratiebewegung zu nutzen.

Vertrauen in Social Media

Es gilt als erwiesenes Phänomen, dass sozialen Medien heute mehr vertraut wird als anderen Menschen. Spiekermann-Hoff: „Das hängt damit zusammen, dass wir eine traditionell gewachsene Ehrfurcht vor der Macht der Maschine haben. Menschen lieben ihre Innovationen und glauben daran, dass sie immer nur Gutes produzieren, dass sie neutral sind, robust und verlässlich. Wir haben gleichzeitig ein zutiefst gewachsenes Misstrauen gegenüber dem Menschen, seiner emotionalen Kontrolle, Denkfähigkeit, seiner Logik und Rationalität.“ Ein Faktum der Computer-Hörigkeit ist, dass seit rund einem Jahrzehnt KI-Programme zur Diskriminierung von Minderheiten und Andersdenkenden herangezogen werden. Beispielsweise werden Bewerbungen von Kandidat*innen aufgrund ihrer Kreativität aussortiert. „Darunter fallen jene, die vom Mainstream abweichen und nicht mehr die Keywords benutzen, nach denen die KI sucht, um jemanden gut zu bewerten“, erklärt Spiekermann-Hoff. Oft sei diese Tatsache den Auftraggeber*innen zunächst nicht bewusst und aus Scham und Gewohnheit tue man sich jetzt sehr schwer, umzurüsten. 

Fehlerhafte Gesichtserkennung

Automatisierte Systeme, wie der Einsatz von Gesichtserkennungstechnologie zur Überwachung und Unterdrückung von politischen Aktivist*innen, kommen zunehmend in autoritären Regimen zum Einsatz. Eine Gefahr besteht allerdings für die Staaten selbst, die diese Systeme anwenden, weil KI sehr anfällig für Fehler ist und unter Umständen einen ungeheuren Kollateralschaden kreiert, wo völlig unschuldige Personen hinterher verfolgt oder falsch klassifiziert werden. Spiekermann-Hoff: „Autoritäre Systeme, die heute noch an die Macht der KI glauben, sollten sich die Frage stellen, ob der Kollateralschaden für ihre Gesellschaft nicht zu hoch sei.“ Laut der Expertin müssen Menschen erst lernen, wie man wertebasierte KI bauen und man Schäden vermeiden kann. Die Alternative wäre in einem brutalen Technik-Faschismus zu enden, indem niemand mehr Verantwortung übernimmt und Menschen KI-Systemen komplett ausgeliefert sind.

Portrait Spiekermann

Zur Person

Sarah Spiekermann-Hoff leitet seit 2009 das WU Institut für Informationssysteme und Gesellschaft. Sie ist eine anerkannte Wissenschaftlerin, Autorin, Referentin und Beraterin für digitale Ethik. 2021 gehörte Spiekermann zu den 14 Verfasser*innen des Manifests „Zur Verteidigung der Demokratie und Rechtsstaatlichkeit im Zeitalter der künstlichen Intelligenz“. In der Schrift wird ein umfangreicher Maßnahmenkatalog zum Schutz vor „staatlichem und nicht-staatlichem Machtmissbrauch“ gefordert.

zurück zur Übersicht