Was ist neu

realistische KI in SF

@rel:

Ich denke, ich breche die Diskussion über diesen Punkt an dieser Stelle ab - die Tatsache, dass du Mitleid als "Anti-Fähigkeit" betrachtest, zeigt mir, dass wir in dieser Hinsicht offenbar vollkommen unvereinbare Standpunkte haben. Nur zwei Dinge noch:

a) Etwas immer wieder vehement zu behaupten, macht es nicht unbedingt richtiger. ;)

b) Wenn deine enge Definition wirklich richtig wäre, wäre ich lieber doof. :D

Ansonsten:

Um mal wieder etwas auf die literarische Schiene zurück zu kommen - es gibt glaube ich drei Hauptgründe, warum Menschen Geschichten mit KI-Bezug schreiben bzw. lesen (das ist jetzt nur eine grobe Zusammenfassung!):

a) Ich will am Ende die Gewissheit haben, dass der Mensch den Maschinen überlegen ist. (In diesen Stories scheitert i.d.R. die KI an ihrer Hybris.)

b) Ich will etwas über mich als Mensch lernen. (In diesen Stories will eine KI wie ein Mensch sein, macht dabei amüsante oder fatale Fehler und lernt am Ende eine Lektion, die sie menschlicher macht.)

c) Ich will mich wohlig gruseln, was die High-Tech wohl noch aus dieser Welt machen wird und wo wir Menschen dabei bleiben. (In diesen Stories haben die Maschinen die Weltherrschaft an sich gerissen.)

Gemeinsam haben diese Stories ihren Bezug zum Menschen! Am Ende kann man solche Geschichten sehr häufig auf ein Frankenstein-ähnliches Motiv reduzieren, das dann letzten Endes auch nur eine weitere Auseinandersetzung mit der Conditio Humanis ist. Deshalb sind die genaue Struktur und wissenschaftliche Details zum Thema KI für die meisten Stories nur marginal von Bedeutung.

Banales Beispiel: "Star Trek Voyager" hat jede Menge KI-Geschichten, alleine durch die Figur des Doktors (hat der eigentlich inzwischen einen Namen, der arme Kerl?). Und ich kann mich nicht erinnern, dass irgendwo auf die technischen Details und theoretischen Hintergründe seiner KI näher eingegangen würde. Was gezeigt wird, sind seine Bemühungen, menschlicher zu werden. Auch andere Stories, z.B. durchgeknallte Holodeck-Figuren etc., haben häufig dieses Motiv.

Meine Hypothese daher:

Eine KI, die vom Publikum als glaubwürdig und bedrohlich / sympathisch empfunden werden soll, muss nicht 100% wissenschaftlich korrekt sein. Sie muß lediglich eine Möglichkeit bieten, sich emotional auf irgendeine Weise mit ihr zu identifizieren (evtl. auch durch Abscheu oder Furcht, quasi als negative Identifikation). Denn am Ende wollen Menschen doch nur etwas über sich selbst erzählt bekommen. ;)

Just another tuppence,
Horni

 

Hallo Uwe,

da sind wir uns wohl einig (- wenigsten wir zwei!), darum ging´s ursprünglich doch auch im Thread?

@ r.
Man sollte das Problem vielleicht wirklich nicht auf einzelne Emotionen bezogen sehen, sondern in komplexen sozialen Zusammenhang, dann wird der Intelligenz- Aspekt deutlicher, wie bei Deinem Alien- Beispiel.

Tschüß... Woltochinon

 
Zuletzt bearbeitet:

Emotionen haben mit Intelligenz nichts zu tun. Egal, von welcher Richtung wir den Begriff der Intelligenz definieren, so bleibt doch letztlich immer übrig, daß es sich um die Fähigkeit handelt, Probleme zu lösen, ohne ein Schema dafür zu besitzen.
Wenn sich jemand gut verständigen kann, Charisma besitzt oder Sympathie ausstrahlt, hat das mit Intelligenz wenig zu tun, mehr mit Einübung. Konditionierung. Bestimmte Verhaltensweisen, die zum Erfolg führen, werden ausgeübt. Aber letzten Endes immer die gleichen. Flexibilität gibt es nicht, denn sie ist nicht erforderlich. Dazu gleichen sich die Menschen in ihrem emotionalen Spektrum zu sehr. Ich würde "soziale Intelligenz" vielleicht gelten lassen, wenn jemand mit Außerirdischen konfrontiert würde und auch mit deren Manieren auf Anhieb zurechtkäme.

Die erste Aussage: "Emotionen haben mit Intelligenz nichts zu tun.", ist erwiesenermaßen völlig Flasch, das zeigen sowohl neuere wissenschaftliche Erkenntnisse als auch die langjährige Praxis in der Therapie psychischer Erkrankungen. Vorallem in der Behandlung von Autismus hat sich gezeigt, das eine emotionale Förderung für den menschlichen Verstand unabdingbar ist.

Kant wird oft als Begründer der mordernen Philosophie und Psychologie genannt, jedoch hat er und viele andere den Fehler gemacht und Kognition und Emotion getrennt. Das ist völlig Flasch, da Emotionen den Verstand strukturieren.

Nur den Emotionen ist es zu verdanken, das wir überhaupt so etwas wie Kreativität und Abstraktionsvermögen besitzen. Ohne Emotionen wäre unser Verhalten völlig mechanisch.

Moral und Ethik sind im übrigen mit die höchsten geistigen Leistungen, die der menschliche Geist hervorbringen kann - und die sind nur mit einer hohen Emotionalen Intelligenz möglich.

Unter Emotionaler Intelligenz versteht man im übrigen nicht das, was Bildzeitung und sonstige darunter verstehen, es ist auch nicht die Fähigkeit, Menschen zu manipulieren oder eine Frau ins Bett zu bekommen.

Nehmen wir zwei Kinder, Ralph und John. Beide 6 Jahre alt. Ralph schaut zu, wie John mit etwas spielt. Ihm wird nun die Frage gestellt, ob er es gerne haben möchte, er antwortet z.B. drauf: "Ich würde gerne damit Spielen." Auf die Frage, warum er es John dann nicht wegnimmt, Antwortet er: "Weil es John nicht gefallen würde."
Und dazu braucht es Emotionale Intelligenz, zu erkennen das John gerne damit spielt, zu verstehen, das es ihm nicht gefallen würde, wenn man es ihm wegnähmen täte. Dazu braucht es ein sehr abstraktes Emotionales Denken.

Man kann das ganze so sehen. Der IQ ist nur ein Potenzial. Ein Mensch mit einem hohen IQ kann auch ziemlich dumm sein. Der IQ gibt nämlich überhaupt keinen Hinweis über die Vernunft eines Menschen da Intelligenz damit nichts zu tun hat. Inwiefern jemand dieses Potenzial nutzt, gibt der EQ an. (Für den es "keine" Tests gibt.)

Wie man sieht, beschäftigt mich die Thematik sehr und ich höre auf die Gefahr hin, das es keinen interessiert, besser jetzt auf, auch wenn ich Stunden darüber schreiben könnte. ;)

PS: Auch wenn ich von vielen Dingen keine Ahnung habe, dies hier ist eines meiner Fachgebiete. ;)

 

Wollte mich ja eigentlich hier raushalten, da ich sonst sowas

a) Etwas immer wieder vehement zu behaupten, macht es nicht unbedingt richtiger.
irgendwann etwas direkter geschrieben hätte. Und dann hätte Emotion über Intellekt triumphiert. :)

@braindead

Vorallem in der Behandlung von Autismus hat sich gezeigt, das eine emotionale Förderung für den menschlichen Verstand unabdingbar ist.
Kannst du das etwas näher erläutern? Ich hätte Autismus bisher nicht mit dem Fehlen von Emotion in Verbindung gebracht.
Nur den Emotionen ist es zu verdanken, das wir überhaupt so etwas wie Kreativität und Abstraktionsvermögen besitzen. Ohne Emotionen wäre unser Verhalten völlig mechanisch.
Ich versuche schon eine Weile, mir eine Intelligenz völlig ohne Emotion vorzustellen. Würde sie denn zwangsläufig garnichts tun aufgrund fehlender innerer Motivation? Könnten sie nicht trotzdem von äußeren Einflüssen zu Intelligenzleistungen stimuliert werden?

Ich halte das für eine wichtige Frage denn ich denke, dass es darum hauptsächlich geht in der KI-Forschung. Eine Intelligenz, die nicht von "störenden" Gefühlen abgelenkt wird, die objektive Lösungen finden kann.

Gruß
Rainman

 

Hallo braindead,

das, was Du schilderst, ist letztlich auch das `Geniale´ am Turing-Test zur Prüfung, ob eine KI vorliegt: Der Tester würde auf die Verbindung von rationalem und emotionalem Verhalten achten.
Emotionen sind auch eine Antriebskraft, logisch- rationales Denken zu entwickeln.
Was die KI im SF- Bereich angeht: Die Konstruktion einer emotionslosen Intelligenz als Grundlage für einen Plot wäre vielleicht ganz interessant.

Tschüß... Woltochinon

 
Zuletzt bearbeitet:

@rainman

Die Folgen aus dem Autismus und der damit verbundenen "fehlenden innerer Motivation?" sind die Gründe für eine geistige Fehlentwicklung. Ich kann das noch später etwas genauer erläutern, muss aber gleich zu ner Vorlesung. ;)


Eine Intelligenz, die nicht von "störenden" Gefühlen abgelenkt wird, die objektive Lösungen finden kann.

Ja, das wäre wirklich mal eine Interessante Frage. Für uns Menschen sind Emotionen für die Logik unerlässlich. Menschen mit Störungen in dem für die Verarbeitung von Emotionen verantwortlichen Teil des Gehirns können zwar noch immer logisch denken, streng genommen denken sie völlig korrekt logisch, aber dabei kommen Schlussfolgerungen raus wie -> Sie haben eine Glatze, sie sind böse, weil auch Skinheads böse sind und die eine Glatze haben.

Was natürlich schwachsinnig ist, aber an dieser Stelle hätte die Emotion die Selektion getroffen, sie hilft die Dinge zu strukturieren und zu selektieren und dann erst werden sie einer genaueren Logik-Prüfung des Verstandes unterzogen. Wenn aber der Verstand allein an das Problem herangeht, wie es bei diesen Menschen mit einer physischen Erkrankung des Gehirns der Fall ist, erweist sich ihre Logik, um in dieser Welt zurecht zu kommen, als nicht brauchbar.

Das sehr konkrete und nicht differenzierte denken dieser Menschen/Patienten könnte man also gut als Vorlage für eine KI ohne Emotionen nehmen, jedenfalls ist das Verhalten dieser Menschen äußerst befremdlich und sonderbar.

Bye, Braindead

PS: Ganz anders sieht die Situation aus, wenn man das ganze aus der Sicht des Behaviorismus sieht, was ungefähr die Richtung ist, auf die Relysium abzielt. Aber diese Theorie ist ziemlich veraltet, außerdem war einer ihrer großen Befürworter ein Mensch, dem es schwer fiel, die Emotionen seiner Mitmenschen wahrzunehmen.

 

Beispiele für eine emotionsgesteuerte KI fand ich bis jetzt in Geschichten und Filmen meistens sehr unrealistisch. Die einzige realistische Alternative mMn wäre eine KI, die Emotionen versucht zu kopieren, womit wir aber wieder bei den Verhaltensmustern wären. Der Touring-Test ist zwar ungemein interessant, aber eine Maschine als intelligent zu bezeichnen, weil sie mir Intelligenz vorspielt, halte ich für Blödsinn. Allerdings wäre es vielleicht ein guter Plot, eine Emotion nachbildende KI fehlerhaft zu programmieren, etwa wie das Glatzenbeispiel von braindead.

Triebgesteuerte KI, also ähnlich eines intelligenten Tieres, halte ich für sinnvoller und realistischer (zumindest in naher Zukunft). Triebe sind eigentlich nur Ziele, die mit Prioritäten versehen sind. Auf KI umgesetzt, sind es einfache Programmparameter. Als Programmierer kann ich meiner Maschine Ziele vorgeben. Echte Emotionen, denke ich, dagegen nicht.

Übrigens macht eine hohe Emotionale Intelligenz noch keinen guten Menschen (oder gute KI) aus mir. Wenn der 6jährige dem anderen das Spielzeug wegnimmt, obwohl er weiß, daß diesem das nicht gefällt, ändert sich sein EQ dadurch nicht.

Gruß
Magranam

 

kennt eigentlich jemand das buch "die beute" (von michael crichton) - da geht es um die verbindung von informatik, biotechnlogie und nanotechnologie...

die folge ist dort eine sich selbst produzierende und weiterentwicklende "spezies"... das buch ist okay aber nicht der brüller - die idee, die dahinter steckt aber mehr als interessant...

vor allem mit blick darauf mit welchem hochdruck in diesen drei branchen weltweit gearbeitet wird..

grüße, streicher

PS: emotionen spielen bei den jungs allerdings eine geringere rolle

 
Zuletzt bearbeitet:

[quatsch]PS: emotionen spielen bei den jungs allerdings eine geringere rolle[/quatsch]

*edit* na sieh mal einer an, nennt man sowas einen Freudschen Tippfehler :D ? ich wollte eigentlich quote schreiben :aua:

Das ist absurd, dass ist eine Erkenntnis, die einfach nur auf oberflächlicher Betrachtung basiert.

----

So, jetzt mal was zur Künstlichen Intelligenz.

Warum sollte sie denn programmiert werden? Meiner Meinung nach braucht es folgende Dinge: Ein selbstbezügliches System, einen Basistrieb, zum Beispiel „Überleben“ und eine Umgebung, der sich das selbstbezügliche System anpassen muss.

So ein System wäre sehr Dynamisch und seine Strukturen wären immer ungefähr ein Abbild der es umgebenden Welt – so wie beim Menschen, wenn eine Umgebung es für das Überleben erfordern würde mehrere Persönlichkeiten zu besitzen, dann würden sich auch mehrere Entwickeln.

Das Hauptproblem, welches ich bei so einem System sehe, ist die Selbstregulierung, die das System in einem stabilen Zustand bringen bzw. halten müsste. Zum Beispiel dürfte das System niemals in den Zustand geraten, wo seine eigene Existenz für sinnlos erachtet wird und somit beschlossen wird sich abzuschalten – beim Menschen wäre diese letzte Lösung der Selbstmord, der dann eintritt, wenn alle Regulierungsmechanismen versagt haben. Noch schlimmer wäre es, wenn dieses System zu der Erkenntnis gelangen würde, die Menschen hätten keine Daseinsberechtigung.

Ich habe mich eine Zeitlang mit Neuroinformatik beschäftigt, die Lösungswege, die uns die Natur dafür bietet sind geradezu genial, auch wenn ich sie nicht einmal ansatzweise begreife. Die ‚Mathematik’ bzw. die Algorithmen, mit denen unser Gehirn arbeitet, sind weitaus höher entwickelt als man zunächst glaubt (als ich es dachte) – bis jetzt hat man sie nicht einmal im Ansatz verstanden, soweit ich es weiß. Im Jahr 2000 war es jedenfalls noch so, das alle Computer der Welt zusammen nicht die Leistungsfähigkeit eines einzelnen menschlichen Gehirns hatten – das dürfte jetzt wahrscheinlich noch immer so sein. Wenn man bedenkt, dass das einfache Gehirn einer Stubenfliege im Ruhezustand schon 10 hoch 12 Instruktionen pro Sekunde verarbeitet, ist Selbst das simulieren einer stinknormalen Stubenfliege ein gewaltiges, eigentlich derzeit unlösbares Problem.

Wenn ich eine Geschichte mit einer KI schreiben würde, dann würde sie nur in Form eines sachlichen Bordcomputers oder einer Bibliothek auftreten. Und wenn es doch mal eine KI sein müsste, die mehr können soll, dann hätte sie keine Siliziumchips in sich, sie hätte auch keine auf Polymer Basis und auch keine Optischen Chips, sondern ein biologisches Neuronales Netzwerk – ein Gehirn. Einer meiner Dozenten meinte, in 50 Jahren vielleicht, wobei er, da auch nur vermuten kann, so wie jeder andere auch. Ich frage mich nach dem Sinn des ganzen, denn was will man überhaupt mit so einem System? Es wäre unberechenbar und wäre immer eine Blackbox, da man niemals genau sagen könnte, was in ihm gerade vorgeht.

----

Abschließend noch etwas zu dem:

Nein, ein hoher EQ, insofern man ihn verlässlich messen könnte, impliziert, dass er ihm dieses Spielzeug nicht wegnimmt, es setzt voraus, ein sehr hohes und abstraktes Verständnis von Ethik und Moral zu besitzen. Es gibt mehrere Stufen der Entwicklung: Aufmerksamkeit, Selbstregulierung, Bindung, Intentionalität und Bildung komplexer Muster die dem Selbstgefühl, dem Bewusstsein und dem Moralempfinden zugrunde liegen. Jemand der egoistisch ist, hat diese Entwicklung nicht vollständig abgeschlossen. Es ist leider so, dass heutzutage immer weniger Menschen dies tun.

Mal ein Zitat: „Intellektuelle Leistungsfähigkeit ist mehr als nur das Meistern unpersönlicher kognitiver Aufgaben – Puzzles, mathematische Probleme, Gedächtnis- oder motorische Übungen – oder des analytischen Denkens. Auch erscheint es nicht hilfreich, jedes Talent, jede Fähigkeit für sich als eine besondere Art von Intelligenz aufzufassen. Unsere Definition von Intelligenz sollte zwar viele solcher Fähigkeiten berücksichtigen, im Mittelpunkt sollte aber der Gesamtprozess stehen, durch den wir logisch urteilen, reflektieren und die Welt verstehen.
Intelligenz besteht in zwei miteinander zusammenhängenden Fähigkeiten: der Fähigkeit, Intentionen und Ideen zu erzeugen, und der Fähigkeit, diese Schöpfungen in einen logischen oder analytischen Rahmen zu stellen. Diese beiden Fähigkeiten gehen aus der erfolgreichen Bewältigung der von uns skizzierten Entwicklungsstadien hervor. Das Ausmaß, in dem sie in unterschiedlichen Lebensbereichen angewandt werden können, bestimmt den Umfang der Intelligenz des einzelnen. Durch Literatur, wissenschaftliche Beobachtungen und Kunst wird die gelebte Erfahrung über unsere unmittelbare Umgebung hinaus erweitert.

Aus: The Growth of the Mind and the Endangered Origins of Intelligence. Von Stanley I. Greenspan und Beryl Lief Benderly.

Noch etwas anderes, das vielleicht einigen bei ihren Geschichten helfen kann:

Der Unterschied zwischen menschlicher Intelligenz und der von Computern, Robotern, Androiden und sonstigen Cybergeschöpfen, die wir uns ausdenken können, besteht darin, dass wir ein Nervensystem besitzen, das Affekte erzeugen und bewerten kann, ja sogar ausdrücklich dafür geschaffen ist. Maschinen mögen also in dem Sinne „sehen“ oder „hören“, dass sie auf visuelle und akustische Reize reagieren, und sie mögen „denken“ im Sinne der Symbolmanipulation, doch sind sie nicht mit einem reflektierenden Bewusstsein begabt, sondern können bloß Licht- und Schallwellen oder sonstige Signale physikalisch registrieren. Das Bewusstsein und all die mit ihm verbundenen Fähigkeiten beruhen auf der Reaktivität unserer Zellen, auf den unzähligen Affekten, die diese Reaktivität generiert, und auf deren Integration durch das Nervensystem. Solange wir nicht in der Lage sind, die Reaktivität und die Affekte lebender Zellen sowie die Fähigkeit, Muster von Affekten zu abstrahieren, in einer künstlichen Form nachzubilden, wird es keine Maschine geben, die wahrhaft menschlich denkt.

So, vielleicht gibt das dem ein oder anderen eine andere Sichtweise.

Wen das Thema interessiert, kann dazu auch ne menge lesen (haha), angefangen bei Hippokrates über Kant und Schopenhauer bis zum undurchschaubaren Dschungel der Neuzeit. Mit Vorsicht ist allerdings der Behaviorismus und die Lernpsychologie des vergangenen Jahrhunderts aufzunehmen, Literatur auf dem Gebiet kann ziemlich in die Irre führen. Die Letzten beiden Dinge wurden ziemlich Missbraucht, um es mal vorsichtig auszudrücken. Ist aber interessant für jemanden, der eine SciFi Geschichte über eine Welt schreiben will, wie sie unter dem Kommunismus wahrscheinlich werden würde.

So, Sorry das ich etwas sehr vom Thema abgekommen bin, denkt aber an die gute Absicht dahinter. ;):aua: :aua:

 

Hallo braindead,

einige sehr interessante Ausführungen, die du uns da zukommen läßt. Allerdings zweifle ich immer noch (wenn auch ohne wissneschaftliche Grundlage) and deiner Definition von EQ. Wenn das Kind nur einen hohen EQ hat, wenn es das Spielzeug nicht wegnimmt, dann ist der EQ gleichbedeutend mit angewandter Moral. Wenn das die allgemeingültige Definition ist, finde ich die Bezeichnung mehr als irreführend. Unter IQ versteht man das Lösen von Problemen mathematischer und ähnlicher Art. Lösungen also, die man nachprüfbar als richtig oder falsch bewerten kann. Moral hingegen kann man nicht nachprüfen. Sie ändert sich ständig und jeder Mensch hat seine eigene. Zudem ist sie von zu vielen Faktoren beeinflußt, den unter Umständen kann es richtig sein, dem Jungen das Spielzeug wegzunehmen, auch wenn ihn das stört. Zum Beispiel als Bestrafung, oder weil er es benutzt, um einen anderen damit zu schlagen (krass formuliert). Daß man sich aber der emotionalen Konsequenz bewußt ist (der Junge will nicht, daß man ihm sein Spielzeug wegnimmt), ist meßbar richtig (Nimm's ihm weg und sieh, was passiert). Das man es nicht tut, oder tun sollte, hingegen nicht.

Um zurück auf ralistische KIs in Geschichten zu kommen, ist es wichtig, zu wissen, in welcher Zeit die Geschichte spielen soll. In 50 Jahren ist man mMn höchstens so weit, KI mit einem hohen IQ zu entwickeln, die selbständig auf neue Situationen reagieren, und sie gemäß ihrer "obersten Direktive" (die Trekkies mögen mir vergeben ;) ) handeln. IN 50 Jahren wollen Wissenschaftler übrigens so weit sein, mit Robotern die Fußballweltmeisterschaft zu gewinnen (www.robocup.org), ich glaube allerdings nicht, daß diese dann schon biologische Gehirne haben.

Eine komplette BlackBox halte ich für übertrieben, ich denke schon, daß man KIs gewisse Grundmotivationen mitgeben wird, etwa Trieben vergleichbar. Wenn sich die KI allerdings weit genug entwickelt, kann es durchaus sein, daß sie im Laufe ihrer Entwicklung selbst ihre fundamentalsten Triebe ignoriert oder negiert - solange ihr dies möglich ist (also der Trieb nicht in einem unveränderbaren Speicher sitzt, oder so).

Gruß
Magranam

 

Das ist absurd, dass ist eine Erkenntnis, die einfach nur auf oberflächlicher Betrachtung basiert

was ist "das"? ich redete von den spzies aus dem buch..

grüße, streicher

 
Zuletzt bearbeitet:

@Magranam, ja, so wie ich es definiert habe. Da habe ich wohl den Fehler begangen und nicht differenziert, denn eine Umgebung kann, wie du es schon angeführt hast, auch das Gegenteil erfordern. Außerdem hätte ich noch zwischen EQ als Basis des Verstandes und des Intellekts und EQ als notwendigkeit für moralisches Handel in unserem Sinne, unterscheiden müssen. Aber wenn ich lese was du geschrieben hast, weißt du es auch so.
Das du an meiner Ausführung zweifelst ist übrigens eine menschliche Eigenschaft, ohne die wir uns wohl nie soweit entwickelt hätten. Auf jedenfall wirfts ein gutes Licht auf deinen Verstand ;)

@Streicher, Sorry, ich bin wohl total verpeilt ... ich dachte du meinst jungs -> Jungen -> Männer. Aber wenn ich mir den Satz jetzt nochmal im Kontext zum Rest anschaue, isses eigentlich absolut klar.

 

@braindead

Die Folgen aus dem Autismus und der damit verbundenen "fehlenden innerer Motivation?" sind die Gründe für eine geistige Fehlentwicklung.
Hab ich nicht verstanden :) Folgen = Gründe?
Würde mich wirklich interessieren, das Thema. Ich nehme an, du würdest nicht so weit gehen zu sagen: Autisten sind Intelligenz ohne Emotion?

-> Sie haben eine Glatze, sie sind böse, weil auch Skinheads böse sind und die eine Glatze haben.
Das wäre ein Beispiel für das regelbasierte System, von dem ich einige Posts zuvor schon geschrieben habe (und für unrealistisch halte als Basis für eine wie auch immer geartete Intelligenz).

Was natürlich schwachsinnig ist, aber an dieser Stelle hätte die Emotion die Selektion getroffen, sie hilft die Dinge zu strukturieren und zu selektieren und dann erst werden sie einer genaueren Logik-Prüfung des Verstandes unterzogen.
Welche Art von Emotion hätte denn in deinem Beispiel für eine andere Schlussfolgerung gesorgt?

Generell bin ich noch nicht davon überzeugt, dass Intelligenz ohne eigene Gefühle ein Widerspruch sein müssen. Um in dieser Welt autonom klarzukommen, müsste diese KI Wissen über Gefühle und deren Auswirkungen auf die Handlungen anderer besitzen, aber sie müsste sie mMn nicht zwangsläufig auch selber empfinden.

Um bei deinem Beispiel mit dem Jungen zu bleiben: Ein KI-Kind könnte wissen, was das Menschen-Kind empfindet, wenn man ihm das Spielzeug wegnimmt, und es könnte aufgrund dieses Wissens entscheiden, es nicht zu tun. Diese Entscheidung könnte das Ergebnis einer Projektion in die Zukunft sein (Nehme ich das Spielzeug, wird Kind weinen. Kindergärtnerin wird schimpfen/Kind wird mich schlagen. Folge: Kindergärtnerin wird Kind Spielzeug wiedergeben/Kind wird meinen Körper eventuell beschädigen. Also entweder: Aktion ist sinnlos, oder es besteht Gefahr für meinen Körper).

Wenn man bedenkt, dass das einfache Gehirn einer Stubenfliege im Ruhezustand schon 10 hoch 12 Instruktionen pro Sekunde verarbeitet, ist Selbst das simulieren einer stinknormalen Stubenfliege ein gewaltiges, eigentlich derzeit unlösbares Problem.
Das liegt aber an der hochgradigen Parallelität, mit dem Gehirne arbeiten, und dessen Funktionalität mit herkömmlichen Rechnern und ihrer sequentiellen Arbeitsweise nur schwer nachgebildet werden können. Experimente mit neuronalen Netzen waren ja durchaus vielversprechend. Es ist die schiere Anzahl an beteiligten "Recheneinheiten" (Neuronen), die diese Leistung hervorbringt.
Wenn ich eine Geschichte mit einer KI schreiben würde, dann würde sie nur in Form eines sachlichen Bordcomputers oder einer Bibliothek auftreten.
Eine funktionale KI halte ich wie schon am Anfang des Threads geschrieben für unwahrscheinlich, aufgrund des ausufernden Hintergrundwissens, das für intelligente Entscheidungen nötig wäre. Welche intelligenten Entscheidungen müsste ein Bordcomputer treffen können?

Gruß
Rainman

 

@magranam

Der Touring-Test ist zwar ungemein interessant, aber eine Maschine als intelligent zu bezeichnen, weil sie mir Intelligenz vorspielt, halte ich für Blödsinn.
Da beisst sich die Katze doch in den Schwanz, oder? Wie will man Intelligenz "vorspielen"? Das klingt so ähnlich wie: so tun, als würde man leben. :)

Um in der Lage zu sein, Intelligenz vorzutäuschen, wäre ein beträchtliches Ausmaß an Intelligenz von Nöten. Von daher hat der Turing-Test mMn durchaus seine Berechtigung.

Gruß
Rainman

 

Autismus

----

Da ich wohl etwas zu jung bin und keine praktische Erfahrung in der Behandlung autistischer Kinder habe, zitiere ich einfach, auch wenn man einiges irgendwie schon vorher wusste und es manchmal nur durch Fachliteratur bestätigt bekommt oder im eigenen denken bestärkt wird oder es gegebenenfalls auch korrigiert wird.

Ein solches Kind, nennen wir es Tony, kam mit achtzehn Monaten in unser Programm. Seine Eltern hatten gleich nach der Geburt entdeckt, dass ihm etwas fehlte. Einen Monat zu früh geboren, wog er nur vier 2 Kilogramm. Eine zerebrale Lähmung von mittlerem Schweregrad verzerrte die Bewegungen seiner Beine und – in geringerem Maße – die seiner Arme. In seinem ersten Lebensjahr introvertiert und zurückhaltend, reagierte er kaum auf das Lächeln und Gurren, mit dem man ihn überschüttete. Nur mit großer Mühe gelang es seiner sanften, unermüdlichen Mutter, ihm eine schwache Reaktion auf ihr Streicheln zu entlocken. Strahlen, Juchzen und Ankuscheln, alles, was Babys in seinem Alter sonst so unwiderstehlich macht, fand man bei ihm kaum. Im Grunde versuchte er gar nicht, mit anderen zu kommunizieren. Das erfüllte seine Eltern mit Sorge. Als Tony fast achtzehn Monate alter war, hatte er noch nicht zu sprechen begonnen und wirkte auch in seinem Verhalten ein gutes Jahr jünger, als er in Wirklichkeit war. Hin und wieder stieß er einen merkwürdigen Laut aus, und er bewegte sich fast ziellos. Er krabbelte, statt zu gehen, und von Monat zu Monat schien er geistesabwesender und unnahbarer zu werden.
.... (Ich kürze mal)

Jedenfalls wird bei dem Kind schließlich von einem Fachmann Autismus diagnostiziert und er würde nie mehr als einen IQ von 50 erreichen. Er wäre dann aufgrund seiner Beeinträchtigungen eingesperrt in ein einsames, weltfernes Reich stereotyp wiederholter Handlungen und geistiger Zurückgebliebenheit und fast vollkommen ausgeschlossen von menschlichen Beziehungen.
....

Eine dreieinhalb Jahre dauernde, auf affektive Interaktionen zentrierte Behandlung bewirkte, dass Tony mit knapp fünf Jahren nicht wiederzuerkennen war. Er spielte fröhlich in einem Kreis von Freunden, verwickelte seine Eltern und Lehrer in angeregte Diskussionen, wehrte sich energisch, wenn er ins Bett gehen sollte, und stellte und beantwortete mit lebhaftem Interesse unzählige Fragen nach den Zusammenhängen der Welt. Er alberte mit seinen kleinen Bruder herum, spielte mit seinen Kumpels Fußball und vertiefte sich in ausgeklügelte Phantasiespiele mit Helden und bösen Kerlen.
.... (jetzt kommt das wesentliche)
Von den autistischen Kindern, mit denen wir gearbeitet haben, haben die meisten Fortschritte gemacht. Viele beweisen wie Tony am Ende echte Kreativität und Empathie. Mit unserer Hilfe lernen diese Kinder, mit anderen zu interagieren, indem sie zunächst Gebärden und Gefühle und dann Wörter und Gefühle miteinander verknüpfen. Tony zum Beispiel leitete seine erste Interaktion ein, als sein Vater versuchte, ein Rad, das er gedrehte hatte, in die entgegengesetzte Richtung zu drehen. Seine ungeheure Reise begann damit, dass er seinen Vater protestierend anblickte und dem Rad einen entgegengesetzten Schwung gab. Jedes dieser Kinder machte seine eigenen, langsameren Fortschritte und muss schwere Probleme mit der Verarbeitung von Lauten, speziell von Wörtern, und vielfach auch von visuellen und taktilen Eindrücken sowie von Bewegungen überwinden, aber alle, die sehr gute Fortschritte gemacht haben, reisen auf derselben Straße und gelangen zu demselben Ziel wie andere Kinder, indem sie fähig werden, kreativ zu denken und flexibel zu interagieren.
....
Bei der Arbeit mit diesen Kindern fanden wir, dass die grundlegende Einheit der Intelligenz in der Verknüpfung zwischen einem Gefühl oder Wunsch und einer Handlung oder einem Symbol besteht. Sobald eine Gebärde oder ein Sprachbrocken auf irgendeine Weise mit den Gefühlen oder Wünschen des Kindes verknüpft ist – und sei es auch etwas so Einfaches wie der Wunsch, nach draußen zu gehen oder einen Ball zu bekommen -, kann es lernen, diese Gebärde angemessen und zweckmäßig zu benutzen. Solange es diese Verknüpfung nicht hergestellt hat, bleiben sein Verhalten und seine Kommunikation gestört; ein wesentliches Element der Störung besteht gerade in der Schwierigkeit, solche Verknüpfungen herzustellen.

Das ist natürlich nur ein winzig kleiner Auszug aus einem Fachgebiet, und die Zitate stellen nur eine Einleitung oder gar nur ein Vorwort für dieses Thema dar.

----

Welche Art von Emotion hätte denn in deinem Beispiel für eine andere Schlussfolgerung gesorgt?

Die Person von der ich sprach, die diese Schlussfolgerung traf, muss eine Störung im präfrontalen Kortex haben (durch einen Unfall – nicht von Geburt an). Er hat trotzdem einen ganz normalen IQ, aber kein Urteilsvermögen mehr, da Emotionen, die an der Bewertung von Folgen beteiligt sind, durch den Schaden nicht mehr vollständig oder gar nicht verarbeitet werden können.

Ohne die richtige Verarbeitung von Emotionen fällt ihm auch die Verarbeitung von Mustern schwer. Wenn er diesen Mann mit Glatze gesehen hätte, dann hätten ihm seine Emotionen alle relevanten Informationen aus seinem Erfahrungsschatz geliefert (in dem ja nun mal Emotionen mit Informationen codiert sind) und sein Verstand hätte dann daraus geschlussfolgert. Man darf jetzt nicht vergessen, das ihm abstraktes denken dadurch fast unmöglich ist, er wird auf die Möglichkeit: Nicht jeder mit einer Glatze ist ein Skinhead, gar nicht erst kommen, da an seiner Urteilsbildung nur noch die Kognition beteiligt ist, und die nur sehr beschränkt und langsam arbeitet und viele Informationen unberücksichtigt lässt. Bei einem normalen Menschen hätten ihm seine Emotionen schlagartig gesagt, den magst du nicht oder du magst ihn – da das Gehirn in der Lage wäre, unzählige frühere Erfahrungen mit den momentanen Eindrücken zu vergleichen. Der Verstand bzw. das Ich-Bewusstsein ist dazu nicht in der Lage, es kann immer nur das Analysieren und Verarbeiten was ihm dieser Teil des Gehirns liefert. An der Realitätsprüfung müssen sowohl Emotion wie auch Kognition zusammenarbeiten.

Ernüchternd gesehen, ist unser Selbst, das Ich-Bewusstsein, nur die letzte Instanz in einer langen Verarbeitungskette. Sie ist dazu noch die langsamste und nur im Zusammenspiel mit dem emotionsverarbeitenden Teil effektiv, da ihr dieser die Informationen zukommen lässt, die diese zu bewerten hat.
Wie eine hochentwickelte Intelligenz handeln könnte, die zwar keine Emotionen verarbeiten kann, aber Informationen über sie besitzt, kann man gut an Menschen mit einer Störung im präfrontalen Kortex beobachten.


Generell bin ich noch nicht davon überzeugt, dass Intelligenz ohne eigene Gefühle ein Widerspruch sein müssen. Um in dieser Welt autonom klarzukommen, müsste diese KI Wissen über Gefühle und deren Auswirkungen auf die Handlungen anderer besitzen, aber sie müsste sie mMn nicht zwangsläufig auch selber empfinden.

Wissen != Informationen

Diese Maschine hätte Informationen über Emotionen aber nicht Wissen darüber. Wissen bei einer Maschine wäre so gesehen die Hardware. Informationen dagegen liegen auf irgend einem Speicher. Man kann das beim Menschen ähnlich sehen. Er hat nämlich mehrere Ebenen der Informationsspeicherung – Kurzzeitgedächtnis etc – und von diesen Informationen geht nur der Teil ins Wissen über, der emotional Codiert ist. Die Verarbeitung von Wissen braucht deswegen auch nur den Bruchteil von Sekunden, während die Verarbeitung von Informationen durch das Ich-Bewusstsein sehr lange dauert, da diese höchste Ebene des Bewusstseins nicht dafür gedacht ist auch die Selektion zu treffen. Ich glaube ich wiederhole mich ständig, aber das hängt auch alles miteinander zusammen.

Ich verstehe nicht ganz das Problem. Wenn jemand in einer Geschichte eine KI braucht, die wie ein Mensch handeln soll, dann muss es auch eine KI sein, die Emotionen direkt verarbeiten kann und Siliziumchips können das nicht, sie muss schon Biologisch sein und da es Science Fiktion ist, kann man sich doch einfach eine Maschine ausdenken, die eine Symbiose aus der „Trockenen“ und „Feuchten“ Nanotechnologie bildet.

Abschließend sollte man sich fragen: Wenn ich eine rein Logische Intelligenz habe, mit einem riesigen Informationsschatz. Wie soll diese KI entscheiden, welche Informationen in einer gegeben Situation relevant sind oder nicht? Wie soll sie selektieren?

Es gibt schon eine ganz einfache Situation, die eine Maschine überfordern würde: Dem Täglichen grüßen von Menschen. Wie entscheidet ein Mensch, wen er grüßt und wen nicht? Genau, nach Sympathie oder Antipathie (dieser Entscheidung geht natürlich eine sehr komplexe und abstrakte Verarbeitung voraus) und wie sollte eine Maschine entscheiden, wer ihm Sympathisch ist und wer nicht? Sie müsste mit unzähligen möglichen Situationen gefüttert werden bzw. unzähligen möglichen logischen Gesetzen um entscheiden zu können. Aber auf diese Art kommt niemals Dynamik oder gar Abstraktion ins Spiel.


So, und jetzt ein schönes Wochenende. ;)

PS: Natürlich kann auch all das was ich geschrieben habe falsch sein, aber es dürfte in die richtige Richtung gehen.

 

@rainman

Wenn ich den Turing-Test richtig in Erinnerung habe, hielt Turing eine Maschine/ ein Programm für intelligent, wenn menschliche Tester das Verhalten nicht von einem Menschen unterscheiden konnten. So gesehen habe ich mich wohl falsch ausgedrückt. Die Maschine spielt nicht Intelligenz vor, sondern Emotionen, bzw. v.a. menschliche Unzulänglichkeiten. So wurde, wenn ich mich recht erinnere, ein Beispiel angeführt, bei dem die Maschine eine komplexe Rechenaufgabe lösen sollte. Sie hat extra eine Pause gemacht, um menschlich zu wirken. Auch die Emotionen werden meines Erachtens nur vorgespielt, da das Zeil ist, menschlich zu wirken, und nicht, frei zu entscheiden.
Deswegen hate ich den Turing-Test nicht für sinnvoll im Bezug auf KI, eher im Bezug auf menschliche Eigenschaften. So behaupteten viele Tester, die Maschine hätte sie verstanden, auch wenn man ihnen das Prinzip der Antwort-Auswahl erklärt hatte.

Also formuliere ich es nochmal neu:
Eine Maschine intelligent zu nennen, weil sie menschliches Verhalten imitieren kann, halte ich für Blödsinn.

Gruß
Magranam

 
Zuletzt bearbeitet:

Mir ist noch etwas weiteres Wichtiges eingefallen.

Wie soll eine Maschine ohne Emotionen überhaupt sprechen können?

Ich meine, unsere Sprache arbeitet größtenteils mit Symbolen auf einer abstrakteren Ebene. Und die Symbole sind abstrakte Repräsentationen von Emotionen.

Deswegen setzen viele Wörter ein Verständnis von Emotionen voraus. Wie soll eine Maschine begreifen, was "mehr" oder "weniger" ist? Das setzt nämlich eine emotionale Empfindung voraus: "weniger" ist nicht so viel wie man gerne haben möchte und "mehr" ist mehr als das was man haben wollte. Eine KI müsste also Wünsche haben, um etwas zu wollen, und um dadurch verstehen zu können, was mehr oder weniger bedeutet, und das ist nur das einfachste Beispiel.

Unsere menschliche Sprache setzt eine Symbolische InnenWelt voraus, allein die zu Verstehen macht das verarbeiten von Emotionen unerlässlich, da diese Welt auf Emotionen gründet, nur in einer sehr abstrakten Form. Das bedeutet, wenn ich wütend bin, schlage ich nicht einfach zu, sondern ich kann das Gefühl in ein Symbol verwandeln und es dadurch ausdrücken: "Ich bin wütend!"

Eine KI könnte vielleicht noch die Syntax verstehen, aber die Semantik wohl kaum und die Semantik im Kontext wird wohl ein noch größeres Problem.


Ich denke, es wurde jetzt genügend darüber gesagt, ich habe bereits auf der Vorseite ein Buch genannt, in dem der Entwicklungsprozess des menschlichen Verstandes verfolgt wird. In dem Buch wiederrum ist eine Bibliographie, die auf unzählige andere Fachbücher verweist. Wen sowas interessiert, viel Spass.

@rainman, die Sache mit dem Autismus hab ich im letzten Beitrag auf seite 5 angeschnitten

kann es sein, das ihr beide, rainman & magranam etwas mit Informatik zu tun habt?


 

Wenn ich den Turing-Test richtig in Erinnerung habe, hielt Turing eine Maschine/ ein Programm für intelligent, wenn menschliche Tester das Verhalten nicht von einem Menschen unterscheiden konnten.
Im Original-Szenarium ging es, soweit ich mich erinnere, darum, dass ein Mensch (A) sich per Tastatur mit zwei Gesprächspartnern unterhält, einer davon ein anderer Mensch, der andere eine Software. Über den Inhalt des Gesprächs sollte es keine Beschränkungen geben. Ziel von A sollte sein, festzustellen, wer die Software ist und wer der Mensch. War er dazu nicht zweifelsfrei in der Lage, könnte die Software als KI bezeichnet werden.

Natürlich könnte man der Software künstlich ein paar Unzulänglichkeiten einbauen (Pausen, falsche Antworten etc.). Allerdings müsste sie immer noch in der Lage sein, die Fragen des Testers überhaupt zu verstehen und sinngemäß zu beantworten. Das schließt zwangsläufig "Eliza"-Programme aus, die nur Schlüsselwörter in der Frage in Antwortschablonen einsetzen oder Ähnliches.

So behaupteten viele Tester, die Maschine hätte sie verstanden, auch wenn man ihnen das Prinzip der Antwort-Auswahl erklärt hatte.
Das war das Eliza-Programm. Das Ganze war kein Turing-Test, sondern ein Experiment. Die Leute hatten keine zwei Gesprächspartner und auch nicht die Information, dass nur einer menschlich ist. Eliza simulierte einen Psychiater, so konstruiert, dass es Sätze des Menschen oft in Form einer Frage wiederholte: Ich bin sehr traurig - Warum bist du traurig? - Ich bin einsam - Warum glaubst du, du bist einsam?

Natürlich war es recht naiv, der Maschine Verständnis zuzusprechen, aber man muss auch berücksichtigen, dass das Programm in einer Zeit geschrieben wurde, als man den Computern noch alles zutraute, als der Begriff "Elektronenhirn" alltäglicher Sprachgebrauch war. Heutzutage wäre das nicht mehr so einfach möglich.

Gruß
Rainman

 

@braindead

Danke erst mal für deine Erklärungen zum Autismus, war sehr interessant für mich. Bisher dachte ich, diese Krankheit beruht hauptsächlich auf dem Unvermögen des Gehirns, aus dem Strom an ununterbrochen hereinbrechenden Daten Wichtiges von Unwichtigem zu trennen. Diesen fehlenden Filter hätte ich aber nicht in der Emotionalität gesucht.

Angenommen, menschliche Intelligenz wäre ohne Emotionen nicht möglich. Was mich dennoch weiterhin beschäftigt, ist die Frage, ob man das dann soweit verallgemeinern kann, dass es auf Intelligenz allgemein zutrifft und sie damit mitdefiniert.

Sie könnte auch nur ein Modell von vielen sein, und eine andere Art von Intelligenz würde möglicherweise ziemlich fremdartig auf uns wirken. Genauso wie das biologische Gehirn vielleicht auch nur eine Möglichkeit darstellt, Intelligenz zu tragen.

Du schreibst:

und wie sollte eine Maschine entscheiden, wer ihm Sympathisch ist und wer nicht? Sie müsste mit unzähligen möglichen Situationen gefüttert werden bzw. unzähligen möglichen logischen Gesetzen um entscheiden zu können.
Vielleicht, indem "Sympathie" niemals ein Kriterium für diese Maschine ist. Sie könnte die Entscheidung vielleicht auch aufgrund "kalter" Überlegungen treffen, z.B. Vorteile bei selbstgesetzten Zielen. Es wäre ein Ausnutzen der Gefühle anderer (aus unserer Sicht), kein eigenes Empfinden.

Eine Welt zu erschaffen, nicht mal unbedingt mit KIs, bei der der Begriff "Emotionen" überhaupt nicht existiert, und die dennoch funktioniert: Das wäre doch mal eine Herausforderung für einen Autor. :)

Gruß
Rainman

 

Hm, das wäre wirklich mal eine Herausforderung :) und ich fände das Interessant zu lesen, da ich mir so eine Welt nicht vorstellen kann.

Die Frage ist nur, wie will man so eine Welt mit einer Sprache ausdrücken, in der die meisten Begriffe eine emotionale Einfärbung haben?

Diese Welt bedarf wohl einer eigenen Sprache, vielleicht die Sprache der Mathematik? Immerhin kann man mit ihr auch "jedes" Problem beschreiben und mit genügend Parametern berechnen.

Aber das ist wohl eine andere Geschichte. ;)

Fazit: Der Thread war bisher ziemlich interessant und hat mir selbst einige neue Sichtweisen gegeben.

 

Letzte Empfehlungen

Neue Texte

Zurück
Anfang Bottom