Blick hinter die Kulissen: Lassen Sie sich nicht von Behauptungen über „künstliche Intelligenz“ blenden

Wir leben derzeit in einem Zeitalter der „künstlichen Intelligenz“ – aber nicht so, wie die Unternehmen, die „KI“ verkaufen, Sie glauben machen wollen. Laut Silicon Valley übertreffen Maschinen die menschliche Leistung schnell bei einer Vielzahl von Aufgaben, von alltäglichen, aber gut definierten und nützlichen Aufgaben wie der automatischen Transkription bis hin zu viel vageren Fähigkeiten wie „Leseverständnis“ und „visuellem Verständnis“. Einigen zufolge stellen diese Fähigkeiten sogar einen schnellen Fortschritt in Richtung „Künstliche Allgemeine Intelligenz“ oder Systeme dar, die in der Lage sind, neue Fähigkeiten selbstständig zu lernen.

Angesichts dieser großartigen und letztendlich falschen Behauptungen brauchen wir eine Berichterstattung in den Medien, die Technologieunternehmen zur Rechenschaft zieht. Viel zu oft bekommen wir stattdessen atemlose „Gee-Whiz“-Berichte, selbst in ehrwürdigen Publikationen wie The New York Times.

Wenn die Medien uns helfen würden, den Hype zu durchbrechen, was würden wir sehen? Wir würden sehen, dass das, was als „KI“ bezeichnet wird, in Wirklichkeit Mustererkennungssysteme sind, die unergründliche Datenmengen mit enormen Mengen an Rechenressourcen verarbeiten. Diese Systeme reproduzieren dann probabilistisch die von ihnen beobachteten Muster mit unterschiedlichem Grad an Zuverlässigkeit und Nützlichkeit, aber immer geleitet von den Trainingsdaten. Für die automatische Transkription verschiedener englischer Varianten kann die Maschine Wellenformen der Schreibweise zuordnen, wird aber mit neu auffälligen Namen von Produkten, Personen oder Orten ins Stolpern geraten. In Übersetzung aus dem Türkischen ins Englischeordnen Maschinen das geschlechtsneutrale türkische Pronomen „o“ „er“ zu, wenn das Prädikat „ist Ärztin“ und „sie“, wenn es „Krankenschwester“ ist, da dies die in den Trainingsdaten stärker ausgeprägten Muster sind.

Sowohl bei der automatischen Transkription als auch bei der maschinellen Übersetzung ist der Musterabgleich zumindest nahe an dem, was wir wollen, wenn wir sorgfältig darauf achten, die Fehlermodi zu verstehen und zu berücksichtigen, wenn wir die Technologie verwenden. Größere Probleme entstehen, wenn Menschen Währungssysteme ableiten, die vorgeben, solche Dinge zu tun Psychische Gesundheitsdiagnosen aus Stimmen Gold „Kriminalität“ aus Bildern der Gesichter der Menschen: Diese Dinge sind nicht möglich.

Es ist jedoch immer möglich, ein Computersystem zu erstellen, das für eine Eingabe (Sprachaufzeichnung, Foto) die erwartete Art von Ausgabe (psychiatrische Diagnose, Kriminalitätsrate) liefert. Das System wird nicht immer falsch sein. Manchmal verfügen wir möglicherweise über unabhängige Informationen, anhand derer wir entscheiden können, ob sie richtig sind, und manchmal liefern sie Ergebnisse, die plausibel, wenn auch nicht verifizierbar sind. Aber selbst wenn die Antworten für die meisten Testfälle richtig erscheinen, bedeutet das nicht, dass das System tatsächlich das Unmögliche tut. Es kann Antworten liefern, die wir zufällig für „richtig“ halten, basierend auf falschen Korrelationen im Datensatz oder weil wir in unserer Interpretation seiner Ergebnisse zu großzügig sind.

Wichtig ist, dass, wenn die Menschen, die ein System einsetzen, glauben, dass es die Aufgabe erfüllt (egal wie schlecht definiert), die Ergebnisse von „KI“-Systemen verwendet werden, um Entscheidungen zu treffen, die sich auf das Leben echter Menschen auswirken.

Warum sind Journalisten und andere so bereit, Behauptungen über magische „KI“-Systeme zu glauben? Ich glaube, ein wichtiger Faktor sind Show-Pony-Systeme wie GPT-3 von OpenAI, die Mustererkennung verwenden, um scheinbar kohärenten Text zu „schreiben“, indem sie wiederholt „vorhersagen“, welches Wort als nächstes in einer Sequenz kommt, was eine beeindruckende Illusion von Intelligenz vermittelt. Aber die einzige Intelligenz, die beteiligt ist, ist die der Menschen, die den Text lesen. Wir sind diejenigen, die die ganze Arbeit machen, unsere Kommunikationsfähigkeiten intuitiv nutzen, wie wir es mit anderen Menschen tun, und uns einen Geist hinter der Sprache vorstellen, auch wenn er nicht da ist.

Auch wenn es scheinbar keine Rolle spielt, ob ein Journalist von GPT-3 betört wird, verleiht jedes Geschwätz, das über seine angebliche „Intelligenz“ schmeichelt, anderen Anwendungen von „KI“ Glaubwürdigkeit – jenen, die Menschen angeblich klassifizieren (als Kriminelle, als Menschen mit geistiger Behinderung). Krankheit usw.) und erlauben ihren Bedienern vorzugeben, dass, weil ein Computer die Arbeit erledigt, diese objektiv und sachlich sein muss.

Wir sollten stattdessen einen Journalismus fordern, der sich nicht von Behauptungen „künstlicher Intelligenz“ blenden lässt und hinter die Kulissen blickt. Wir brauchen Journalismus, der solche Schlüsselfragen stellt wie: Welche Muster in den Trainingsdaten werden die Systeme dazu bringen, frühere Schäden gegen marginalisierte Gruppen zu replizieren und fortzusetzen? Was passiert mit Menschen, die den Entscheidungen des Systems unterworfen sind, wenn die Systembetreiber glauben, dass sie richtig sind? Wem nützt es, diese Entscheidungen einem vermeintlich objektiven Computer vorzuschieben? Wie würde dieses System die Macht weiter konzentrieren und welche Regierungssysteme sollten wir fordern, um dem entgegenzuwirken?

Wir sollten uns alle daran erinnern, dass Computer einfach Werkzeuge sind. Sie können von Vorteil sein, wenn wir sie mit Aufgaben in der richtigen Größe beauftragen, die gut zu ihren Fähigkeiten passen, und ein menschliches Urteilsvermögen darüber bewahren, was mit dem Output zu tun ist. Aber wenn wir unsere Fähigkeit, Sprache und Bilder, die von Computern erzeugt werden, zu verstehen, fälschlicherweise für Computer als „denkende“ Einheiten halten, riskieren wir, Macht abzutreten – nicht an Computer, sondern an diejenigen, die sich hinter dem Vorhang verstecken würden.

Leave a Comment

Your email address will not be published.