Künstliche Intelligenz ist unerwartet oft eine Mogelpackung!

in #deutsch5 years ago

Liebe Leute!
Auch modernste AI-Systeme sind oft gar nicht so schlau, sondern benutzen "Kluger Hans"-Strategien!

Der Kluge Hans

Zur Erinnerung: "Kluger Hans" (1), so nannte man ein Pferd, das - angeleitet vom Mathematiklehrer Wilhelm von Osten - in den Jahren vor dem ersten Weltkrieg einiges Aufsehen erlangt hatte, weil es angeblich rechnen und zählen konnte. Durch Klopfen eines Hufes oder durch Nicken/Schütteln des Kopfes konnte Hans arithmetische Aufgaben lösen, buchstabieren oder Personen abzählen. Er konnte sogar die Quadratwurzel aus 16 berechnen! Auch eine 1904 eingesetzte 13-köpfige wissenschaftliche Kommission der Preußischen Akademie der Wissenschaften konnte keinen Betrug feststellen, denn Hans lieferte korrekte Ergebnisse, auch wenn Wilhelm von Osten gar nicht anwesend war.
Trotzdem hatte das Pferd natürlich keine Ahnung von Mathematik. Der entscheidende Hinweis war schließlich, dass Hans versagte, wenn der Fragesteller die Antwort selbst nicht wusste. Denn das Pferd rechnete nicht, sondern deutete feinste Nuancen in Gesichtsausdruck und Körpersprache seines menschlichen Gegenübers. Bis heute weiß man aufgrund fehlender Videomitschnitte nicht, welche unbewussten Signale das Pferd erkannt hatte. Hans fand 1916 in den Wirren des ersten Weltkrieges vermutlich ein sehr unrühmliches Ende als Lasttier.

image.png
Quelle Public Domain

Kluger-Hans-Strategie

Als Kluger-Hans-Effekt bezeichnet man seither die "unbewusste Beeinflussung des Verhaltens von Versuchstieren, insbesondere in die Richtung, dass der beim Versuch erwartete Effekt eintritt". Übertragen auf die AI-Forschung, ist eine Kluger-Hans-Strategie die Erweckung des Anscheines von AI durch pseudointelligente Ansätze, die aber dennoch oberflächlich als korrekt gewertet werden.
Wäre die Unterscheidung zwischen einem Schiff und einer Lokomotive durch das Vorhandensein oder Fehlen von Schienen (bzw. Wasser) als intelligent zu bezeichnen? Auf gewisse Weise ja, aber vermutlich nicht im Sinne der AI-Forscher, zumindest wenn es um Objekterkennung und nicht um Analyse des Kontextes geht, denn eine Lokomotive, ins Wasser gefotoshopped, würde so mit hoher Wahrscheinlichkeit eine Fehldeutung ergeben.

Eigentlich könnte es uns ja egal sein, wie eine AI das Muster erkennt, Hauptsache sie tut es. Aber in bestimmten Anwendungen, z.B. der Krebsdiagnose, die entscheidend für die richtige Therapie sein kann, ist es höchst strittig, ob man klinisch relevante Entscheidungen einer "Black Box" überlassen sollte. Mehr über einen konkreten Fall und das Black-Box-Problem hier.
Die Scheu vor einer "Black Box" geht sogar so weit, dass oftmals lineare machine learning (ML) Systeme den non-linearen vorgezogen werden, weil letztere trotz meist besserer Performance weniger gut "verstanden" werden (d.h. deren Entscheidungsfindungsprozesse meist wenig transparent sind).
Auf jeden Fall Grund genug, sich anzusehen, wie Deep Learning (DL)-Algorithmen ihre Muster finden.
Eine Studie der TU Berlin, des Fraunhofer Heinrich-Hertz-Instituts (HHI) und der Singapore University of Technology and Design, publiziert in Nature Communications (2), ist genau dieser Sache nachgegangen. Dazu haben die Forscher eine Technik entwickelt, die "Layer-wise Relevance Propagation" (LRP), die sichtbar macht, aufgrund welcher Kriterien AI-Systeme Entscheidungen treffen. Danach haben sie LRP weiterentwickelt zu "Spectral Relevance Analysis" (SpRAy), das in Folge auch in sehr großen Datensätzen unerwünschte Entscheidungsmuster herausfiltern kann (3).
Ziel: Die "explainable AI", also der wichtige Schritt weg von der Black Box hin zu einer erklärbaren AI, um Zufalls- oder falschrichtige Treffer (bzw. Strategien) auszuschliessen.

Beispiele

Neben dem oben erwähnten Beispiel, wo Objekte nicht aufgrund von Objekteigenschaften sondern aufgrund des Kontextes erkannt wurden, fand ich dieses (das gefunden wurde bei der Analyse des sog. "Fisher Vector"-Bilderkennungsalgorithmus) besonders krass:
Im oberen linken Bild wurde das Objekt Pferd nicht aufgrund von Eigenschaften des Pferdes selbst erkannt, sondern wegen des source tags, wie man an der heat map erkennen kann (die heat map oder auch relevance map ist eine visuelle Analyse von Bewertungsscores von ML-Algorithmen und sagt im wesentlichen aus, welche Pixel für die Entscheidungsfindung am relevantesten sind). Wurde das tag entfernt, wurde das Pferd auch nicht erkannt (links unten). Wurde das Pferd durch ein Auto ersetzt (das zuvor korrekt als Auto erkannt worden war), wurde das Auto als Pferd wahrgenommen (falls das gleiche source tag vorhanden war, ansonsten nicht). Laut der Autoren würde so ein Verhalten bei Menschen wohl als "cheating" bezeichnet werden.
image.png
Creative Commons Attribution 4.0 International License, © Sebastian Lapuschkin, Stephan Wäldchen, Alexander Binder, Grégoire Montavon, Wojciech Samek & Klaus-Robert Mülle 2019 (2)

Eine ebenfalls unerwartete Abkürzung fand ein anderer DNN (deep neural network)-Algorithmus in Bildern von Flugzeugen: Die Auffüllmuster am Bildrand! Flugzeugbilder werden bei der Endbearbeitung oft mit Pixeln am Rand aufgefüllt, um sie z.B. in das richtige Bildformat zu bringen. Pixelartifakte mit blauen Pixeln am Bildrand benutzte das DNN, um ein Flugzeug zu erkennen. In dieser Abb. sieht man links neben jedem Bild den Score für die Kategorie "Flugzeug". Bei Ergänzung mit "himmelblauer" Farbe war der Wert hoch, bei einer zufälligen Farbe war das Bild auf einmal wesentlich weniger "flugzeugartig" und bei Zufallspixeln stürzte der Wert komplett ab, obwohl sich das Objekt selbst nicht geändert hatte.
image.png
Creative Commons Attribution 4.0 International License, © Sebastian Lapuschkin, Stephan Wäldchen, Alexander Binder, Grégoire Montavon, Wojciech Samek & Klaus-Robert Mülle 2019 (2)

Fazit

Obwohl niemand daran zweifelt, dass die Weiterentwicklung der AI mit Riesenschritten vorangeht und unser Leben in vielen Bereichen massiv verändern wird, mehr als vielleicht jede andere Technologie zuvor, sollten wir nicht blind sein, sondern genau hinterfragen, wie eine konkrete Lösung zustande kommt. Wojciech Samek, Gruppenleiter am Fraunhofer HHI dazu:

"Wir waren sehr erstaunt über die große Bandbreite der gelernten Problemlösungsstrategien. Selbst moderne AI-Systeme haben nicht immer einen aus menschlicher Perspektive sinnvollen Lösungsweg gefunden, sondern nutzten bisweilen "Clever-Hans-Strategien" (4)

Die Autoren halten es nach ihren quantitativen Auswertungen für durchaus denkbar, dass die Hälfte(!) der aktuell eingesetzten AI-Systeme implizit oder explizit solche Abkürzungsstrategien verwenden. Die Tools, die in ihrer Arbeit vorgestellt wurden, sind open source und könnten ein erster Schritt sein, um AI-Systeme, wenn schon nicht schlauer, aber zumindest robuster, erklärbarer und damit sicherer in der Anwendung machen.

Notiz am Rande:
Generell wird im Startup-Bereich sehr "großzügig" mit dem Begriff AI umgegangen. Eine Analyse der Londoner Venture-Capital-Firma MMC Ventures kam zu dem Schluss, dass rund 40% der Startups in Europa, die als AI-Unternehmen geführt wurden, nichts mit AI zu tun hatten (5). Der offensichtliche Grund: So lässt sich leichter Risikokapital akquirieren, da Investoren sich derzeit auf alles, was mit AI zu tun hat, regelrecht stürzen!

Quellen:
(1) https://de.wikipedia.org/wiki/Kluger_Hans
(2) https://rdcu.be/bFKlH
(3) https://www.tu-berlin.de/?203846
(4) https://www.trendingtopics.at/gar-nicht-so-intelligent-der-grosse-ai-schwindel/
(5) https://www.trendingtopics.at/analyse-40-prozent-der-europaeischen-ai-startups-nutzen-gar-keine-ai/

Sort:  

richtig gut! Der kluge Hans :D Mit was man die Leute über den Tisch ziehen kann.

Abgesehen von der fundamentalen Diskussion um Intelligenz, bezweifele ich das klassische Computer jemals wirklich klug im Sinne von flexibel sein werden. Deep learning hat wenig mit dem Gehirn zu tun, es gibt vielleicht Parallelen mit Authisten oder ähnlichen Behinderungen wo man dominant solche feed-forward/deep ströme und massive "Daten"-Durchsätze sieht, was nützt es wenn man sich dafür nicht selber die Schuhe zubinden kann?

Das Kluge im gesunden Menschenverstand kommt ja gerade nicht von Hochleistung sondern vielen Filtern, die sich auf den Kontext fixieren. Resteem.

Ich denke leichte autistische Züge können auch ein Vorteil sein ^^

Posted using Partiko Android

ja klar wenn "Begabungen" vorhanden sind und die Defizite sich in Grenzen halten. Die Personen die Gehirnleistungen jenseits des normal menschlichen haben (fotographisches Gedächtnis, Bücher mit jeweils eine Seite pro Auge querlesen zu können und Wort für Wort wieder zugeben) haben i.d.R. starke Einschränkungen im IQ und sind auf Hilfe im Alltag angewiesen.

Heutzutage werden hypersensitive Menschen und ähnliche Fälle viel zu schnell als authistisch abgeschrieben. Dabei haben sie einfach nur andere Reizschwellen und nehmen Dinge wahr die andere nicht wahrnehmen, können dafür aber nicht so gut mit vielen Menschen oder Stressigen Situationen.

Ich denke dass Leben gar nicht so sehr von Intelligenz abhängig ist und man so ziemlich alles lernen kann ;)

Posted using Partiko Android

Du hast ein kleines Upvote von unserem Curation – Support – Reblog Account erhalten. Dieser wurde per Hand erteilt und nicht von einem Bot. Wir, die Mitglieder des German Steem Bootcamps möchten die Deutsche Community stärken. Bei einer Mitgliedschaft im German Steem Bootcamp könnt ihr sicher sein, dass eure Beiträge auch gelesen werden.

N E U - jeden Donnerstag findet bei uns ab 19 Uhr die Quasselstunde statt wo du nicht nur mit uns reden kannst - es werden auch tolle Preise verlost

Du findest uns im Discord unter https://discord.gg/vTsTSrZ

;

Morjen,

toller Artikel mit einem wirklich wichtigen Kern. Wir haben im Wesentlichen zwei extreme Pole: 1) Ärzte & Wissenschaftler, die meinen sie wüssten alles und würden daher immer die richtigen Schlüsse aus ihrer "intuitiven" Datenanalyse zeihen. 2) ITler, die meinen der Computer sei das Allheilmittel für alle Herausforderungen der modernen Zeit.

Wie immer ist, meines Erachtens nach, der Mittelweg entscheidend. Heißt: Verwendung von Algorithmen um die Datenlage zu ordnen und "vorzubereiten" kombiniert mit einem wachen Geist, welcher nochmals einen kritische Revision durchführt.

Gerade bei Krankheitsbildern bzw. Vorgeschichten, die viele Parameter aufweisen (also z.B. viele verschiedene Laborwerte) ist es absolut wichtig, dass Maschinen eine Vorauswertung vornnehmen. Greifen hier der Mensch zu früh ein, so kommt es, meines Erachtens nach, schnell zu Fehlschlüssen.

Das mit dem Pferd ist übrigens ne richtig spannende Sache, kannte dich Geschichte nur oberflächlich, würde mich echt mal interessieren wie es wirklich war.

Schönen Sonntag

Chapper

Der Begriff "Künstliche Dummheit" ist wohl bislang treffender. Es wäre auch erstaunlich, wenn wir eine Programmierung für Computer schaffen könnten, die sich wie die menschliche Intelligenz verhält - wenn wir bislang gar nicht wirklich wissen, wie diese Intelligenz bei uns funktioniert.
Natürlich kann man Schemata entwickeln nach denen bestimmte Dinge erkannt werden können. Das hat aber nichts mit Intelligenz zu tun, und selbst das funktioniert nicht fehlerfrei.

Schöner Artikel und ja zurzeit wird sehr viel mit "KI" betitelt, obwohl das so betitelte Produkt noch weit entfernt von wirklicher "Intelligenz" ist.

Aber wie du auch schreibst schreitet die Technik mit riesen schritten voran, manche KI's und Roboter überraschen mich jetzt schon. Sind halt nur die richtig teuren und auch die sind natürlich noch verbesserungsbedürftig, aber ich denke in ein paar Jahren werden die Dinger uns alle sehr überraschen/beeindrucken:D

Da wundert es nicht, dass man linear lernende Systeme bevorzugt ;-)

Spannender Artikel, thx.

Hi @stayoutoftherz!

Your post was upvoted by @steem-ua, new Steem dApp, using UserAuthority for algorithmic post curation!
Your UA account score is currently 4.097 which ranks you at #3147 across all Steem accounts.
Your rank has improved 59 places in the last three days (old rank 3206).

In our last Algorithmic Curation Round, consisting of 194 contributions, your post is ranked at #67.

Evaluation of your UA score:
  • Some people are already following you, keep going!
  • The readers appreciate your great work!
  • Good user engagement!

Feel free to join our @steem-ua Discord server



This post has been voted on by the SteemSTEM curation team and voting trail. It is elligible for support from @curie.

If you appreciate the work we are doing, then consider supporting our witness stem.witness. Additional witness support to the curie witness would be appreciated as well.

For additional information please join us on the SteemSTEM discord and to get to know the rest of the community!

Please consider setting @steemstem as a beneficiary to your post to get a stronger support.

Please consider using the steemstem.io app to get a stronger support.

Coin Marketplace

STEEM 0.24
TRX 0.11
JST 0.032
BTC 61572.53
ETH 2995.53
USDT 1.00
SBD 3.73