Jetzt können KI-Bots nach deinem Tod für dich sprechen. Aber ist das ethisch?

Jetzt können KI-Bots nach deinem Tod für dich sprechen.  Aber ist das ethisch?

Deadbots verwenden KI, maschinelles Lernen und können Chats als Einzelperson bis nach ihrem Tod simulieren

Maschinelle Lernsysteme schlängeln sich zunehmend durch unseren Alltag und stellen unsere moralischen und sozialen Werte und die Regeln, die sie regeln, in Frage. Heutzutage, virtuelle Assistenten die Privatsphäre des Hauses bedrohen; Newsrecommender prägen die Art und Weise, wie wir die Welt verstehen; Risikovorhersagesysteme Sozialarbeitern Tipps geben, welche Kinder sie vor Missbrauch schützen sollen; während datengesteuerte Einstellungstools Bewerten Sie auch Ihre Chancen, einen Job zu bekommen. Allerdings ist die Ethik des maschinellen Lernens bleibt für viele verschwommen.

Als ich nach Artikeln zu diesem Thema für die jungen Ingenieure suchte, die den Kurs für Ethik und Informations- und Kommunikationstechnologie an der UC Louvain, Belgien, besuchten, war ich besonders beeindruckt von der Fall von Joshua Barbeauein 33-jähriger Mann, der eine angerufene Website benutzte Projekt Dezember um einen Konversationsroboter zu erstellen – a Chatbot – das würde ein Gespräch mit seiner verstorbenen Verlobten Jessica simulieren.

Gesprächsroboter imitieren tote Menschen

Bekannt als ein toter bot, erlaubte diese Art von Chatbot Barbeau, Textnachrichten mit einer künstlichen „Jessica“ auszutauschen. Trotz der ethisch kontroversen Natur des Falls fand ich selten Materialien, die über den bloßen Tatsachenaspekt hinausgingen und den Fall durch eine explizit normative Linse analysierten: Warum wäre es richtig oder falsch, ethisch wünschenswert oder verwerflich, einen Deadbot zu entwickeln?

Bevor wir uns mit diesen Fragen auseinandersetzen, lassen Sie uns die Dinge in einen Kontext stellen: Project December wurde vom Spieleentwickler Jason Rohrer erstellt, um es Menschen zu ermöglichen, Chatbots mit der Persönlichkeit anzupassen, mit der sie interagieren möchten, vorausgesetzt, sie bezahlen dafür. Das Projekt wurde basierend auf einer API von erstellt GPT-3, ein textgenerierendes Sprachmodell des Forschungsunternehmens für künstliche Intelligenz OpenAI. Barbeaus Fall eröffnet a Kluft zwischen Rohrer und OpenAI weil die des Unternehmens Richtlinien ausdrücklich verbieten, dass GPT-3 für sexuelle, amouröse, selbstverletzende oder Mobbing-Zwecke verwendet wird.

Berufung Die Position von OpenAI Als hypermoralistisch und argumentierend, dass Leute wie Barbeau „zustimmende Erwachsene“ seien, schloss Rohrer die GPT-3-Version von Project December.

Während wir alle eine Intuition darüber haben, ob es richtig oder falsch ist, einen maschinell lernenden Deadbot zu entwickeln, ist es keine leichte Aufgabe, seine Auswirkungen zu formulieren. Deshalb ist es wichtig, die ethischen Fragen, die der Fall aufwirft, Schritt für Schritt anzugehen.

Reicht Barbeaus Zustimmung aus, um Jessicas Deadbot zu entwickeln?

Da Jessica eine echte (wenn auch tote) Person war, scheint Barbeaus Zustimmung zur Schaffung eines Deadbots, der sie nachahmt, unzureichend. Auch wenn sie sterben, sind Menschen nicht nur Dinge, mit denen andere tun können, was sie wollen. Aus diesem Grund halten es unsere Gesellschaften für falsch, die Erinnerung an die Toten zu entweihen oder respektlos zu sein. Mit anderen Worten, wir haben gewisse moralische Verpflichtungen gegenüber den Toten, insofern der Tod nicht zwangsläufig bedeutet, dass Menschen in a aufhören zu existieren moralisch relevante Weise.

Ebenso ist die Debatte offen, ob wir die Grundrechte der Toten schützen sollten (z. Privatsphäre und persönliche Daten). Die Entwicklung eines Deadbots, der die Persönlichkeit einer Person repliziert, erfordert große Mengen an persönlichen Informationen wie Daten aus sozialen Netzwerken (siehe what Microsoft Gold Ewig vorschlagen), die sich als aufschlussreich erwiesen haben hochsensible Eigenschaften.

Wenn wir zustimmen, dass es unethisch ist, die Daten von Menschen ohne ihre Zustimmung zu Lebzeiten zu verwenden, warum sollte es dann ethisch sein, dies nach ihrem Tod zu tun? In diesem Sinne erscheint es sinnvoll, bei der Entwicklung eines Deadbots die Zustimmung der Person einzuholen, deren Persönlichkeit gespiegelt wird – in diesem Fall Jessica.

Wenn die imitierte Person grünes Licht gibt

Die zweite Frage lautet also: Würde Jessicas Zustimmung ausreichen, um die Kreation ihres Deadbots als ethisch zu betrachten? Was, wenn es ihr Gedächtnis beeinträchtigte?

Die Grenzen der Zustimmung sind in der Tat ein umstrittenes Thema. Nehmen wir als paradigmatisches Beispiel die Rotenburger Kannibale, der zu lebenslanger Haft verurteilt wurde, obwohl sein Opfer dem Verzehr zugestimmt hatte. In diesem Zusammenhang wurde argumentiert, dass es unethisch ist, sich auf Dinge einzulassen, die uns schaden können, sei es physisch (um die eigenen lebenswichtigen Organe zu verkaufen) oder abstrakt (um die eigenen Rechte zu veräußern).

In welcher konkreten Hinsicht etwas für die Toten schädlich sein könnte, ist eine besonders komplexe Frage, die ich nicht vollständig analysieren werde. Es ist jedoch erwähnenswert, dass selbst wenn die Toten nicht auf die gleiche Weise geschädigt oder beleidigt werden können wie die Lebenden, dies nicht bedeutet, dass sie für schlechte Handlungen unverwundbar sind oder dass diese ethisch sind. Die Toten können Schaden an ihrer Ehre, ihrem Ansehen oder ihrer Würde erleiden (z. B. posthume Schmutzkampagnen), und die Respektlosigkeit gegenüber den Toten schadet auch ihren Angehörigen. Darüber hinaus führt uns ein schlechtes Verhalten gegenüber den Toten zu einer Gesellschaft, die insgesamt ungerechter und weniger respektvoll mit der Würde der Menschen umgeht.

Schließlich besteht angesichts der Formbarkeit und Unvorhersehbarkeit maschineller Lernsysteme die Gefahr, dass die Zustimmung der nachgeahmten Person (während sie lebt) nicht viel mehr als einen Blankoscheck für ihre potenziellen Wege bedeutet.

Unter Berücksichtigung all dessen erscheint es vernünftig zu schlussfolgern, dass, wenn die Entwicklung oder Verwendung des Deadbots nicht dem entspricht, was die nachgeahmte Person vereinbart hat, ihre Zustimmung als ungültig angesehen werden sollte. Darüber hinaus sollte, wenn es eindeutig und absichtlich ihre Würde verletzt, nicht einmal ihre Zustimmung ausreichen, um es als ethisch zu betrachten.

Wer übernimmt die Verantwortung?

Eine dritte Frage ist, ob künstliche Intelligenzsysteme eine Nachahmung anstreben sollten jeglicher Art des menschlichen Verhaltens (unabhängig davon, ob dies möglich ist).

Dies beschäftigt den Bereich der KI seit langem und ist eng mit dem Streit zwischen Rohrer und OpenAI verknüpft. Sollen wir künstliche Systeme entwickeln, die beispielsweise in der Lage sind, sich um andere zu kümmern oder politische Entscheidungen zu treffen? Anscheinend gibt es etwas in diesen Fähigkeiten, das Menschen von anderen Tieren und Maschinen unterscheidet. Daher ist es wichtig, die Instrumentalisierung der KI zu beachten Techno-Solutionist Ziele wie der Ersatz geliebter Menschen können zu einer Abwertung dessen führen, was uns als Menschen ausmacht.

Die vierte ethische Frage ist, wer die Verantwortung für die Ergebnisse eines Deadbots trägt – insbesondere im Falle schädlicher Auswirkungen.

Stellen Sie sich vor, dass Jessicas Deadbot selbstständig gelernt hat, auf eine Art und Weise aufzutreten, die ihr Gedächtnis erniedrigt oder irreversible Schäden davonträgt Barbeaus psychische Gesundheit. Wer würde die Verantwortung übernehmen? KI-Experten beantworten diese schlüpfrige Frage durch zwei Hauptansätze: Erstens fällt ihnen die Verantwortung zu an der Konzeption und Entwicklung des Systems beteiligt, sofern sie dies nach ihren jeweiligen Interessen und Weltanschauungen tun; Zweitens sind maschinell lernende Systeme kontextabhängig, also die moralische Verantwortung für ihre Ergebnisse verteilt werden soll unter allen Agenten, die mit ihnen interagieren.

Ich stelle mich näher an die erste Position. Da es in diesem Fall eine explizite Co-Kreation des Deadbots gibt, an der OpenAI, Jason Rohrer und Joshua Barbeau beteiligt sind, halte ich es für logisch, die Verantwortungsebene jeder Partei zu analysieren.

Erstens wäre es schwierig, OpenAI verantwortlich zu machen, nachdem sie ausdrücklich verboten haben, ihr System für sexuelle, amouröse, selbstverletzende oder Mobbing-Zwecke zu verwenden.

Es scheint vernünftig, Rohrer ein erhebliches Maß an moralischer Verantwortung zuzuschreiben, weil er: (a) explizit das System entworfen hat, das es ermöglicht hat, den Deadbot zu erschaffen; (b) dies getan hat, ohne Maßnahmen zur Vermeidung potenzieller negativer Folgen vorwegzunehmen; (c) war sich bewusst, dass es die Richtlinien von OpenAI nicht einhielt; und (d) davon profitiert.

Und weil Barbeau den Deadbot unter Berücksichtigung bestimmter Merkmale von Jessica angepasst hat, scheint es legitim, ihn mitverantwortlich zu machen, falls dies sein Gedächtnis beeinträchtigt.

Ethisch, unter bestimmten Bedingungen

Um also auf unsere erste, allgemeine Frage zurückzukommen, ob es ethisch vertretbar ist, einen maschinell lernenden Deadbot zu entwickeln, könnten wir eine bejahende Antwort unter der Bedingung geben, dass:

  • sowohl die nachgeahmte Person als auch diejenige, die sie anpasst und mit ihr interagiert, ihre freiwillige Zustimmung zu einer möglichst detaillierten Beschreibung des Designs, der Entwicklung und der Verwendung des Systems gegeben haben;

  • Entwicklungen und Nutzungen, die sich nicht an die Zustimmung der nachgeahmten Person halten oder gegen ihre Würde verstoßen, sind verboten;

  • Die an seiner Entwicklung beteiligten Personen und diejenigen, die davon profitieren, übernehmen die Verantwortung für mögliche negative Folgen. Sowohl rückwirkend, um eingetretene Ereignisse zu berücksichtigen, als auch vorausschauend, um deren Eintreten in der Zukunft aktiv zu verhindern.

Dieser Fall veranschaulicht, warum die Ethik des maschinellen Lernens wichtig ist. Es zeigt auch, warum es wichtig ist, eine öffentliche Debatte zu eröffnen, die die Bürger besser informieren und uns helfen kann, politische Maßnahmen zu entwickeln, um KI-Systeme offener, sozial gerechter und grundrechtskonformer zu machen.Die Unterhaltung

(Autor: Sara Suarez-GonzaloPostdoktorand, UOC – Universität Oberta de Catalunya)

Offenlegungserklärung: Sara Suárez-Gonzalo, Postdoktorandin in der Forschungsgruppe CNSC-IN3 (Universitat Oberta de Catalunya), verfasste diesen Artikel während eines Forschungsaufenthalts am Hoover Chair in Economic and Social Ethics (UCLouvain).

Dieser Artikel wird neu veröffentlicht von Die Unterhaltung unter einer Creative-Commons-Lizenz. Lies das originaler Artikel.

(Mit Ausnahme der Überschrift wurde diese Geschichte nicht von NDTV-Mitarbeitern bearbeitet und von einem syndizierten Feed veröffentlicht.)

.

Leave a Comment

Your email address will not be published.