Kenne deine Rechte

Entscheidet sich die KI gegen uns? Zur Wahrung der Menschenrechte in einer KI-getriebenen Welt (Interview)


Im Interview mit Kenne deine Rechte reflektiert Experte Christian Kittl über die mächtige Rolle, die Technologie in unserer Gesellschaft spielt, insbesondere im Hinblick auf die Auswirkungen auf unsere Grundrechte und das soziale Gefüge. Dabei beleuchtet er die ethischen Herausforderungen und Chancen, die sich aus dem Einsatz von Künstlicher Intelligenz ergeben, und diskutiert die Verantwortung der Gesellschaft, die Entwicklung dieser Technologien verantwortungsbewusst zu lenken.

Die Künstliche Intelligenz (KI) und die IT-Branche spielen eine zunehmend wichtige Rolle in unserem Alltag; Wie sehen Sie die Verbindung zwischen Technologie und Menschenrechten?

In Bezug auf Menschenrechte gibt es verschiedene Ansichten: Einige sehen sie als angeborene Naturrechte, während andere argumentieren, dass sie soziale Konstrukte sind. Die Herausforderung liegt darin, wie wir diese Rechte durchsetzen können, anstatt darüber zu debattieren, wer welche Rechte hat. Viele Menschenrechte werden anerkannt, aber nicht effektiv durchgesetzt. Regierungen verletzen oft Menschenrechte, und individuelle Bemühungen stoßen an Grenzen. Ein zentrales Menschenrecht ist das Recht auf Privatsphäre, das durch Technologien beeinträchtigt wird. Neue Technologien, insbesondere die KI, stellen enorme Herausforderungen für die Gesellschaft dar und beeinflussen die Umsetzbarkeit von Menschenrechten stark. ChatGPT ist deshalb so faszinierend für viele Leute, weil sie nicht genau verstehen, wie das System funktioniert. Das System hat keine bewusste Vorstellung davon, was es sagt oder was der Inhalt eines Satzes ist. Es basiert lediglich auf Wahrscheinlichkeiten und versucht, das nächste Wort vorherzusagen. ChatGPT erstellt oft überraschend nützliche Inhalte in Form von Aufzählungen, was Menschen dazu bringt, anzunehmen, dass es die Bedeutung der Aussagen versteht und bewusst formuliert, obwohl es nur Wahrscheinlichkeiten verwendet, um Wortfolgen zu generieren. Es macht auch objektive Fehler, wie falsche Referenzen, die jedoch im Zeitablauf weniger werden können, wenn die Trainingsdaten erweitert und die Algorithmen weiter optimiert werden.

Technik, insbesondere KI, hat einen bedeutenden Einfluss auf die Gesellschaft. Meiner Ansicht nach müssen bestehende Menschenrechte nicht geändert, sondern konsequent durchgesetzt werden. Dadurch könnten viele Probleme automatisch gelöst werden, doch leider bleibt dies oft Theorie und wird nicht praktisch umgesetzt.

Datenschutz und Privatsphäre sind grundlegende Menschenrechte. Inwieweit sind diese Rechte in der heutigen digitalen Welt durch Technologie und die IT-Branche gefährdet?

Ich finde, dass die Menschenrechte nicht unbedingt als gefährdet bezeichnet werden können, da sie bereits in vielen sozialen Interaktionen praktisch nicht vorhanden sind, es sei denn, man betrachtet sie als Naturrechte, die immer bestehen. Selbst wenn gesetzliche Bestimmungen existieren, halten sich Regierungen oft nicht daran und ordnen Datenschutz- und Privatsphärenrechte anderen Interessen unter. Das wurde besonders deutlich durch Enthüllungen wie die von Edward Snowden, obwohl ähnliche Praktiken wie Echelon bereits vorher existierten und weitreichende Überwachung bedeuteten. Obwohl Datenschutz- und Privatsphärenrechte seit dem Zweiten Weltkrieg als universell anerkannt gelten, werden sie von Regierungen oft nicht respektiert. Daher bin ich skeptisch, dass sich dies ändern wird, selbst wenn die Bedrohung durch künstliche Intelligenz für die Gesellschaft zunimmt.

Welche Chancen bietet KI für die Förderung und den Schutz von Menschenrechten?

Es stimmt, dass diese Technologie bereits jetzt extrem mächtig ist und in den kommenden Jahren noch erheblich an Fähigkeiten gewinnen wird. Wenn wir diese Fähigkeiten positiv nutzen könnten, um die Menschenrechte so umzusetzen, wie sie kodifiziert sind, wäre das von unschätzbarem Wert. Allerdings würde dies den Willen und die Koordination der gesamten Menschheit voraussetzen. Wenn sich nur ein Teil der Menschheit darauf einigt und die anderen diese Technologie für das Gegenteil nutzen, dann wären diejenigen, die sich an die Regeln halten, letztendlich die ‚G‘schnapsten‘.  Es besteht auch das Risiko, dass Staaten oder Gruppen diese Technologie nutzen, um andere auszubeuten. Dennoch könnte man Künstliche Intelligenz theoretisch nutzen, um Menschenrechtsverletzungen zu überwachen und zu bekämpfen. Man könnte der KI sogar das Ziel setzen, eine faire und gerechte Welt zu schaffen, vorausgesetzt, wir könnten das klar definieren und nicht der KI überlassen, wie sie diese Ziele interpretiert.

Obwohl ich normalerweise Optimist bin, bin ich in diesem Fall eher pessimistisch. Man könnte sagen, ich bin hier ein ausgelernter Optimist, ein Realist. Es ist schwer vorstellbar, dass eine solche positive Nutzung der Technologie in absehbarer Zeit realisiert wird.

Die zunehmende Verbreitung von Überwachungstechnologien und Massen- überwachungssystemen wirft Fragen hinsichtlich der individuellen Freiheiten und des Rechts auf Privatsphäre auf.

Massenüberwachungssysteme sind bereits weit verbreitet, wie man an der Anzahl der Videokameras in Städten wie London bzw. in China oder Dubai sieht, wo Gesichtserkennungstechnologien allgegenwärtig sind. Obwohl Regelungen zur biometrischen Datenverarbeitung existieren, bergen viele dieser Praktiken hohe Risiken und sollten vermieden werden. Es ist zwar ein sinnvoller Ansatz, solche Technologien nur begrenzt einzusetzen, aber im kapitalistischen System haben diejenigen, die sich nicht daran halten, oft einen Vorteil. China experimentiert bereits mit Gentechnik, wie leuchtenden Schweinen, und es gibt Berichte über das Klonen von Menschen, obwohl solche Praktiken geächtet sind. Auch biologische und chemische Waffen sind geächtet und werden dennoch im Krieg eingesetzt.

Ein Minimalkonsens wird die Menschenrechte kaum effektiv schützen, ähnlich wie bei der Menschenrechtscharta. Wir müssen lernen, mit den Auswirkungen dieser Technologien umzugehen, während sie uns überwachen und unsere Entscheidungen beeinflussen. Die Inkaufnahme der Gefahren wird oft unter dem Vorwand der Terrorismusbekämpfung oder anderer vorgeschobener Ziele gerechtfertigt, daher sollten wir uns den Satz von Benjamin Franklin immer wieder in Erinnerung rufen: „Wer Freiheit im Namen der Sicherheit aufgibt, wird letztendlich beide verlieren“ – eine bedauerlich treffende Realität.

KI-Systeme können aufgrund von unzureichenden Daten oder Voreingenommenheit in den Daten zu diskriminierenden Entscheidungen führen, bestehende soziale Ungleichheiten verstärken oder verringern. Wie können wir sicherstellen, dass KI-Systeme o. ä. Technologien die Menschenreche fördern und nicht zu digitaler Diskriminierung führen?

Bevor wir dies sicherstellen können, müssen wir klar definieren, was wir erreichen möchten und konsequent darauf hinarbeiten. Zum Beispiel ist das Ziel diskriminierungsfreier Entscheidungen herausfordernd, da Diskriminierung in verschiedenen Formen und bewusst oder unbewusst vorkommt. Ein Ausgangspunkt kann die Anerkennung sein, dass alle Menschen gleich und mit unantastbarer Würde geboren sind.

Die Definition von Diskriminierung ist kontextabhängig und es besteht Uneinigkeit darüber, was als diskriminierend gilt. Die Verwendung von Technologie zur Herstellung nicht-diskriminierender Entscheidungen erfordert daher eine kontextbezogene Betrachtung. Wenn ein Staat eine bestimmte Sichtweise vertritt, kann die Technologie diese unterstützen, doch ob diese Sichtweise mit unseren Werten vereinbar ist, ist eine andere Frage.

Menschenrechte werden als universell betrachtet, doch es wird oft argumentiert, dass sie aus einer christlichen Tradition stammen und möglicherweise nicht alle Kulturen repräsentieren. Daher ist es fraglich, ob sie als alleiniger Maßstab dienen können, um die Richtigkeit oder Falschheit einer bestimmten Sichtweise zu beurteilen. In Bezug auf die Verringerung sozialer Ungleichheiten bin ich skeptisch. Die Kluft zwischen Arm und Reich wird durch das kapitalistische System offensichtlich verstärkt, und die Einführung von KI könnte diese Ungleichheiten eher verstärken als verringern, da die Verteilung von Chancen und Möglichkeiten noch ungleicher wird. Es ist ein Prinzip des „the winner takes it all“.

Die Digitalisierung und Automatisierung durch KI-Technologien kann zu Arbeitsplatzverlusten führen und bestehende soziale Ungleichheiten verstärken. Wie können wir sicherstellen, dass der Einsatz von KI zu positiven sozialen und wirtschaftlichen Effekten führt und niemanden benachteiligt?

In Bezug auf den Verlust von Arbeitsplätzen durch Automatisierung: Dies ist ein Phänomen, das es schon sehr lange gibt, aber durch die technologische Entwicklung beschleunigt wird. Die Geschwindigkeit dieser Entwicklung ist das eigentliche Problem. Früher dauerte es Jahrhunderte, bis sich neue Technologien durchsetzten; heute geschieht dies in kürzester Zeit. Menschen müssen die Möglichkeit haben, sich anzupassen, doch die Entwicklungsgeschwindigkeit der KI ist enorm. Berufe und Berufsbilder werden in einem Tempo zerstört, das viele nicht einmal erahnen können.

Unsere Aufgabe als Gesellschaft wird sein, diese Herausforderungen so gut wie möglich zu antizipieren und die Bevölkerung kontinuierlich über Entwicklungen und mögliche Auswirkungen zu informieren, um Anpassungen zu erleichtern. Die Menschen werden sich immer anpassen, aber Anpassung braucht Zeit, und diese Zeit wird immer knapper.

Technologieunternehmen haben oft großen Einfluss auf das tägliche Leben vieler Menschen. Inwiefern sollten diese Unternehmen Verantwortung für die Auswirkungen ihrer Produkte und Dienstleistungen auf die Menschenrechte übernehmen?

Die Frage der Verantwortung für Produkte und Dienstleistungen ist äußerst komplex und faszinierend, insbesondere weil viele Technologien entwickelt werden, um dieses Verantwortungs- und Haftungsproblem zu adressieren. Ein gutes Beispiel dafür ist das selbstfahrende Auto, das vor moralisch schwierigen Entscheidungen steht, wie etwa die Wahl zwischen dem Überfahren eines 5-jährigen Kindes oder eines 90-jährigen Urgroßvaters. Die Kodifizierung solcher Entscheidungen wäre rechtlich äußerst problematisch und könnte für Entwickler verheerende Konsequenzen haben.

Eine Möglichkeit, dieses Dilemma anzugehen, besteht darin, dass neuronale Netzwerke auf der Grundlage von Trainingsdaten arbeiten und in bestimmten Extremsituationen Entscheidungen treffen, die nicht direkt von den Entwicklern festgelegt wurden. Durch den Einsatz von „sauberen“ Trainingsdaten, die bestimmte moralische Prinzipien widerspiegeln, können Entwickler darauf verweisen, dass das System eigenständig gelernt hat, in ähnlichen Situationen zu handeln. Dieser Ansatz ermöglicht es, schwierige moralische Fragen zu umgehen, aber löst sie nicht unbedingt. Die Frage der Haftung bleibt bestehen. Gemäß dem Produkthaftungsgesetz haftet derjenige, der ein Produkt in Verkehr bringt, für sämtliche Risiken, auch wenn es schwierig ist, den Entwickler direkt für potenzielle Fehlentscheidungen des Systems zu belangen. Es ist wichtig, dass die Haftung auf denjenigen übertragen wird, der das Produkt auf den Markt bringt, und dass dieser möglicherweise Regressansprüche gegenüber anderen Beteiligten geltend machen kann.

Da KI keine nationalen Grenzen kennt, ist internationale Zusammenarbeit wichtig, um gemeinsame Standards und Richtlinien für den Einsatz von KI und die Cybersicherheit im Einklang mit den Menschenrechten zu entwickeln. Wie können Regierungen und internationale Organisationen in dieser Hinsicht zusammenarbeiten, um diese Ziele zu erreichen?

Die Vereinten Nationen (UNO) stellen tatsächlich ein Minimum an gemeinsamem Konsens dar, auf das sich die internationale Gemeinschaft verständigen kann, trotz ihrer Schwächen und Unzulänglichkeiten in verschiedenen Bereichen. Ähnlich wie das Internet als Werkzeug der Demokratisierung betrachtet wurde, wird auch die künstliche Intelligenz oft als Instrument der Gleichstellung angesehen, vorausgesetzt, sie wird entsprechend trainiert und eingesetzt.

Allerdings besteht die Gefahr, dass KI-Systeme, ähnlich wie das Internet durch die „Great Firewall“ in China, durch Regelsysteme eingeschränkt werden, um von Regierungen unerwünschte Ergebnisse zu vermeiden. Und trotz zunächst antidiskriminierendem Training könnten KI-Systeme auf Fragen, die dem Regime missfallen, nicht unbedingt nicht-diskriminierende Antworten geben, da politische Einflüsse und spätere Regimewechsel ihre Interpretation beeinflussen können.

Ein weiteres Problem besteht darin, dass die größten Herausforderungen der UNO, wie etwa das Vetorecht der ständigen Mitglieder im Sicherheitsrat, ihre Wirksamkeit beeinträchtigen können. Dennoch ist es aus realpolitischen Gründen oft notwendig, sich auf gemeinsame Ziele und Maßnahmen zu einigen, auch wenn dies Kompromisse erfordert.

Abschließend: Welchen Ausblick haben Sie für die Zukunft der Beziehung zwischen künstlicher Intelligenz und Menschenrechten?

Das Recht auf Privatsphäre ist in der Tat von grundlegender Bedeutung im Kontext der künstlichen Intelligenz und der Einhaltung der Menschenrechte. Indem man das Recht auf Privatsphäre konsequent respektiert und durchsetzt, können auch die anderen Menschenrechte positiv beeinflusst werden. Es ist gewissermaßen der Ausgangspunkt, von dem aus man alle anderen Rechte im Bereich der KI-Systeme unterstützen kann. Wenn wir das Recht auf Privatsphäre konsequent verteidigen, können wir sicherstellen, dass individuelle Autonomie, Meinungsfreiheit, Gleichheit und andere wichtige Rechte respektiert werden. Andererseits könnten Verletzungen der Privatsphäre schwerwiegende Auswirkungen auf alle anderen Menschenrechte haben. Daher ist es von entscheidender Bedeutung, die Privatsphäre als grundlegenden Wert zu schützen, um die gesamte Bandbreite der Menschenrechte zu fördern und zu erhalten.


DI Dr. Christian Kittl ist Geschäftsführer der REVOLISE GmbH in Graz, die auf nutzerzentrierte und sichere Lösungen im Gesundheitswesen und Nachhaltigkeitsbereich spezialisiert ist und wo er seit 2020 tätig ist. Er promovierte an der Technischen Universität Graz, absolvierte sein Studium der Betriebswirtschaftslehre an der Karl-Franzens-Universität Graz und hat mehr als 50 Publikationen verfasst. Christian Kittl war davor fast 20 Jahre für das e-Business Kompetenzzentrum evolaris, zuletzt als geschäftsführender Gesellschafter, sowie in zahlreichen Beiräten internationaler Konferenzen und Journals im Bereich e- und m-Business tätig.  Er ist Vortragender an verschiedenen Universitäten und war Captain und Mentor der Studienrichtung Informationstechnologien & Wirtschaftsinformatik an der Fachhochschule Campus02 in Graz.


Das könnte dich auch interessieren