Was ist neu

realistische KI in SF

Seniors
Beitritt
03.04.2003
Beiträge
1.344

realistische KI in SF

Der Anthropomorphismus scheint hier immer wieder durch. Film und Literatur sind voll von Robotern, die durchdrehen oder zur Überraschung ihres Schöpfers Gefühle entwickeln, etc.

Wie das geschieht, ist teilweise recht unterhaltsam beschrieben, jedoch unrealistisch. Es sind in Wirklichkeit Märchen darüber, was wäre, wenn Menschen eine KI wären. Es sind nicht Visionen, wie sich KI entwickeln könnte. Der gedankliche Schwerpunkt liegt deswegen auch zumeist darin, wie die ethischen Konsequenzen aussehen würden. Darf man eine KI "töten", darf sie wählen gehen, heiraten, etc.

Gedanken, wie eine "echte" KI funktionieren oder auch fehlfunktionieren könnte, und wie das aussehen würde, finden sich so gut wie gar nicht.

Ich selbst habe da einige Ansätze, jedoch skizziere ich sie hier nur im Groben:

Funktionen:
KIs werden in der Regel entworfen, um einem Zweck zu dienen. Sicher gibt es auch den Gedanken, nur mal ein wenig Gott zu spielen, aber im Wesentlichen gibt es da zwei Ansätze:
a) Technik:
KI kann industriell eingesetzt werden, um Roboter zu steuern (Fabriken, Fahrzeuge, Militärisches) oder rein gedankliche Produkte zu schaffen (Berechnung komplexer Probleme, Design etc.).
b) Unterhaltung:
KI kann versuchen, in Spielen oder Dienstleistungen Menschen nachzubilden, damit der menschliche Konsument sich unter seinesgleichen fühlt und sich mit ihnen natürlich unterhalten kann.
In jedem Fall wird die KI zunächst einmal nur das machen, was man ihr "gesagt" hat. Der Autoschweißroboter wird nicht plötzlich Verse schreiben, und das Malprogramm nicht die Weltherrschaft anstreben. Man kann natürlich Geschichten schreiben, in denen man genau dieses thematisiert, aber dann bitte mit einer plausiblen Begründung, warum. Am plausibelsten ist dabei, wenn der Programmierer das entweder so wollte oder Software-Bausteine verwendet, die eigentlich einem anderen Zweck dienten. Blitzeinschläge, Kurzschlüsse, Erschütterungen oder gar "psychische Traumata" etc. gehören dabei definitiv zu den Märchen.

Hardware & Peripherie:
Wie oben erwähnt, kann eine KI eine Maschine (Roboter) steuern oder rein virtuell existieren. In letzter Zeit werden die Geschichten von Computern, die über das Telefonkabel die Weltherrschaft an sich reißen wollen, gottlob geringer. So geht das nun einmal nicht. Ein Computer kann nur das "tun", was als Maschine an ihn angeschlossen ist. Solche Späße, wie Telefonzellen explodieren zu lassen, den Strom im Land abschzuschalten oder ein Verkehrschaos durch Ampelreprogrammierung anzurichten sind Zaubermärchen. Wobei auch hier gilt: sag niemals nie. Aber wer eine Geschichte auf so etwas aufbaut, der soll die Umstände plausibel begründen.

Technische Voraussetzungen:
a) Prozessor
KI im PC? Warum nicht? Allerdings ist dazu eine nicht unerhebliche Rechenleistung erforderlich. Ein Zauberwort der letzten Jahre heißt Parallelisierung, d.h. man schaltet mehrere Prozessoren in Reihe und weist jedem eine kleine Teilaufgabe zu. Dennoch sind die heutigen Mikroprozessorsysteme noch zu raumgreifend, um sie in Androiden zu verwenden.
Es hindert einen natürlich keiner daran, eine neue Technologie zu erfinden, die auf anderen technischen Grundlagen steht oder die bestehenden extrapoliert.
b) Die Software
Software wird im Moment noch von Menschen geschrieben. Insofern wird ein Roboter, der von einem Programmierer gefüttert wurde, auch nur das tun, was der Programmierer vorhatte.
Evolutionäre KI, die dazulernt, wird auch nur das dazulernen, was für ihren Betrieb wichtig ist.
Damit eine KI Unsinn macht, muß der Programmierer erst den Fehler begehen, die Hauptsteuerungsschleife nicht auf den Zweck der KI auszurichten (Uhren zusammenschrauben), sondern auf eine andere Funktion, z.B. Selbsterhaltung. Wäre eine interessante Geschichte, über einen gestörten Software-Entwickler, der Roboter wartet und ihre Programmierung so verändert, daß sie sich egoistisch weiterentwickeln, und eines Tages spielt eine Fabrik verrückt und bringt alle Arbeiter um, beginnt Androiden zu produzieren... - aber das wird jetzt zu detailliert.
Auf jeden Fall muß bei evolutionärer KI berücksichtigt werden, ob es auch zufällige Mutation geben soll. Man wird eine KI mit einer solchen Eigenschaft vielleicht zu Forschungszwecken verwenden, aber ihr keinen Körper geben, das wäre ja irre. Wenn dann aber jemand aus welchem Grund auch immer eine solche KI in einen Roboterpflanzt, der ist es selbst schuld, wenn Merkwürdiges dabei herauskommt. Auch hier bitte die Darwinschen Gesetze von Mutation und Selektion berücksichtigen. Die meinsten Mutationen sind schädlich. Oder, wie die Zeugebn Jehovas es einmal so schön formuliert haben: Wenn man einen Stock in einen Videorecorder steckt, wird er kaum besser funktionieren als vorher.

Funktionsstörungen:
Was realistisch ist, ist leider meist nicht sehr spannend. Ein durchgedrehter Roboter wird wahrscheinlich in eine Endlosschleife geraten oder gegen die Wand laufen, anstatt Leute abzumurksen oder den Sinn des Lebens zu erkennen. Auch hier gilt: Wenn so etwas auftritt, mach es plausibel, warum.
Am einfachsten ist es natürlich, wenn man das Militär bemüht und einen Kampfroboter mit einer fehlerhaften Freund-Feind-Erkennung ausstattet. Aber ich gebe zu bedenken, daß dieses Thema ziemlich ausgelutscht ist.

r

 

So gut wie gar nicht thematisiert wurde die Frage, ob eine KI überhaupt sinnvoll ist. Ich würde das beispiel-programmatisch in folgende Fragen packen:

Warum sollte man mit hohem Aufwand an Mitteln eine datenverarbeitende Instanz entwickeln, die ihre eigentliche Aufgabe im Grunde nicht besser erfüllt, die aber in der Lage wäre, "menschliches" Versagen zu emulieren, das sie eigentlich ausschließen soll?

oder:

Warum sollte man mit hohem Aufwand an Mitteln eine datenverarbeitende Instanz entwickeln, die im Grunde nur bestehende IT-Kapazität mit der Intelligenz des derzeit menschlichen Nutzers verknüpft, obwohl von diesem potentiell mehrere Millionen Exemplare zuviel vorhanden sind.

Der einzige Zweck einer KI, der sich nicht über kybernetische Prozesse gleichwertig umsetzen ließe, ist der maschineller Vorgänge mit eigener Entscheidungsfähigkeit. In der SF wird üblicherweise das Bild gezeichnet, daß die Menschheit Verantwortung auf KI überträgt, weil sie ihrer überdrüssig ist. Nun darf man sich fragen, inwiefern das glaubwürdig ist, wenn man bedenkt, daß ein Großteil menschlicher Konflikte auf dem Willen beruht, Entscheidungen über Andere treffen zu wollen.

Etwas theatralisch ausgedrückt: Man will keinen Herren über sich und man hat genug Sklaven unter sich, wozu also eine KI?

mh

 

Politisch gesehen interessanter Ansatz, aber Fakt ist, daß es KI-Forschung gibt.

r

 

Hallo relysium,

das Hauptproblem liegt meiner Meinung nach darin, zu erkennen, wann eine KI vorliegt und wann es lediglich ein besonders komplexes Stück Software ist. Die Beispiele, die du unter a) Technik nennst, würde ich allesamt nicht als KI bezeichnen. Robotersteuerung z.B. basiert auf dem Prinzip Input-Entscheidung-Output. Die Entscheidungsphase kann hochkomplex sein, aber sie bleibt determiniert, solange nicht ein Faktor hinzukommt, den man grade hier garnicht will: Potentielle Unvorhersehbarkeit.

Insofern ist

In jedem Fall wird die KI zunächst einmal nur das machen, was man ihr "gesagt" hat.
genau das KO-Kriterium für eine KI.

Ich denke, es kann prinzipiell keine KI geben, die nur auf einen einzigen Zweck hin ausgerichtet ist. Selbst an überschaubaren Aufgabenstellungen wie Spracherkennung oder Übersetzungen scheitern deterministische Programme regelmäßig. Das Programm muss den Text verstehen, den Kontext (Literatur, Bedienungsanleitung, Brief..) und eventuell auch den Autor und die Kultur, in der er aufwuchs, berücksichtigen.

Entwicklungs-Ansätze halte ich für die vielversprechendsten. Eine KI muss die Welt, in der sie agieren soll, erleben, in ihr aufwachsen und sich in ihr behaupten. Kein fremdprogrammiertes Regelwerk kann die eigene Erfahrung ersetzen.

Ich meine übrigens nicht, dass Mutationen hier eine Rolle spielen müssten. Selbst bei uns selber sind wir nahe einem Punkt, an dem wir selbst für die Optimierung der Basisparameter (Gene) sorgen könnten.

Noch etwas:

b) Unterhaltung:
KI kann versuchen, in Spielen oder Dienstleistungen Menschen nachzubilden, damit der menschliche Konsument sich unter seinesgleichen fühlt und sich mit ihnen natürlich unterhalten kann.
Ich würde diesen Punkt keinesfalls unterschätzen. Spiele waren ein ganz wesentlicher Faktor für die enorme Entwicklung der Rechenleistung heutiger PCs. Der Spieltrieb scheint ein wesentliches Element der menschlichen Psyche zu sein. Vielleicht werden KIs ja irgendwann ähnliche Vorlieben besitzen.
KI im PC? Warum nicht? Allerdings ist dazu eine nicht unerhebliche Rechenleistung erforderlich. Ein Zauberwort der letzten Jahre heißt Parallelisierung, d.h. man schaltet mehrere Prozessoren in Reihe und weist jedem eine kleine Teilaufgabe zu.
Vielversprechend war ja mal die ins Extrem geführte Parallelisierung über neuronale Netze. Scheint aber nicht der Weisheit letzter Schluss gewesen zu sein, da es in letzter Zeit etwas ruhig darum geworden ist.

Gruß
Rainman

 

Hallo Yerho,

Warum sollte man mit hohem Aufwand an Mitteln eine datenverarbeitende Instanz entwickeln, die im Grunde nur bestehende IT-Kapazität mit der Intelligenz des derzeit menschlichen Nutzers verknüpft, obwohl von diesem potentiell mehrere Millionen Exemplare zuviel vorhanden sind.

Dazu fallen mir spontan mehrere Gründe ein, Neugier, Forschung mit Möglichkeiten, die sich am Menschen aus ethischen Gründen verbieten, Unterhaltung/Kommerz.

Gruß
Rainman

 

@yerho:
Gerade die Tatsache, dass Menschen eben gerne die Meister sind, macht die KI ja so interessant.
Nicht jeder ist Firmenchef oder Präsident, wo er Tag für Tag Menschen kontrollieren kann. Eine KI aber könnte jeder, vollkommen kontrollieren.
Sie würde jedem Befehl gehorchen, bis in den künstlichen Tod hinein.
Man überträgt zwar damit die Verantwortung auf jemand anderen, aber nicht die Kontrolle: ein großer Unetrschied

Warum sollte man mit hohem Aufwand an Mitteln eine datenverarbeitende Instanz entwickeln, die ihre eigentliche Aufgabe im Grunde nicht besser erfüllt, die aber in der Lage wäre, "menschliches" Versagen zu emulieren, das sie eigentlich ausschließen soll?
Weil der Mensch dazu neigt, Aufgaben, die er nicht erledigen will, anderen anzuvertrauen: Auch wenn der sie nicht besser oder sogar schlechter macht. Hauptsache man selbst ist befreit von der Arbeit...

Warum sollte man mit hohem Aufwand an Mitteln eine datenverarbeitende Instanz entwickeln, die im Grunde nur bestehende IT-Kapazität mit der Intelligenz des derzeit menschlichen Nutzers verknüpft, obwohl von diesem potentiell mehrere Millionen Exemplare zuviel vorhanden sind.
Ein Roboter / eine KI streikt nicht, will keine Gehaltserhöhung, keine Pension, keine Karenz, wird nicht Krank, kündigt nicht plötzlich, etc...
Die Vorteile liegen auf der Hand. Zumal ich denke, dass nach erfolgreicher Programmierung einer ersten echten KI die Preise für weitere nicht allzu hoch sein dürften.

Auf die Problematiken, die in einer Gesellschaft, die auf KIs und Roboter aufbaut, weist Isaac Assimov in seinem geschaffenen Univerum ja zur genüge hin.
In diesem Zusammenhang möchte ich ein Buch aus seinem Nachlass empfheln: "Caliban". Es behandelt einige von relysium angesprochene Themen: dürfen Roboter wählen; haben sie einen eigenen Willen? inwieweit ist eine noch so komplexe KI menschlich? und dadurch natürlich auch die weiterführende Frage: Was ist menschlich, und was unterscheidet eine perfekte KI dann nochvom Menschen?

Hunter

 

Hallo Hunter,

Sie würde jedem Befehl gehorchen, bis in den künstlichen Tod hinein.
Ein Roboter / eine KI streikt nicht, will keine Gehaltserhöhung, keine Pension, keine Karenz, wird nicht Krank, kündigt nicht plötzlich, etc...
genau diesen Punkt sehe ich ganz anders, wie ich im ersten Posting schon zu erklären versucht habe.

Ich halte es für absurd anzunehmen, man könne ein Wesen erschaffen, das Dinge tut und denkt ähnlich dem Menschen, das über sich selbst reflektieren kann, und dann dieses Wesen gleichzeitig in genau definierten Kernfunktionen wie dem freien Willen einzuschränken. Ich mag die Bücher von Asimov, aber Konzepte wie die Roboterregeln sind mMn unrealistisch.

Gruß
Rainman

 

Hups - interesanter Thread!

Ich denke, eine sehr grundlegende Frage ist natürlich, dass man sich überlegt, was man als "intelligent" bezeichnen will? Ist ein Schachprogramm intelligent? Im Ergebnis zunächst doch einmal ja - solange es um diese spezielle Aufgabe geht. Aber es gibt ja auch menschliche Fachidioten. ;)

Sind Emotionen eine Voraussetzung für Intelligenz? Evtl. schon. Zumindest sind sie für unser Gehirn ein wichtiges Bewertungsinstrument bei Projektionen. Aber muss eine KI das auch haben, um wirklich intelligent zu sein? Oder ist eine Entscheidung auf reiner Faktenbasis evtl. "intelligenter"? Welche Ethik ergäbe sich daraus? Kann eine KI moralische Entscheidungen treffen? Sollte sie das überhaupt?

Angefangen mit dem ELIZA-Problem (s.u.a. Weizenbaum) könnte man sich fragen: Macht es Sinn, menschliches Verhalten künstlich zu simulieren? Wenn ja, zu welchem Zweck? Und mit welchen Konsequenzen? Ist der Mensch überhaupt der alleinige Maßstab für "Intelligenz"? Hat z.B. ein Ameisenvolk nicht eine eigene Art von Intelligenz? (Immerhin erschaffen sie Beachtliches!)

Fragen über Fragen...

Und da ich gerade an gleich zwei Stories rumdoktore, die sich mit dem Thema befassen, finde ich diese Diskussion höchst interessant. :D

Gruß,
Horni

 

Hallo Horni,

Hat z.B. ein Ameisenvolk nicht eine eigene Art von Intelligenz? (Immerhin erschaffen sie Beachtliches!)
Hast bestimmt auch "Gödel, Escher, Bach" gelesen, stimmts? :)

Die Theorie, dass sich Intelligenz eventuell als "Nebenprodukt" hinreichend komplexer Systeme ergibt, ist in jedem Fall interessant. Wir erkennen sie womöglich nur nicht aufgrund ihrer Fremdartigkeit.

Gruß
Rainman

 

Hier schwirren mir zuviele Unschärfen herum. Was z.B. soll genau ein "deterministisches" von einem "nichtdeterministischem" unterscheiden? Bzw. sind nichtdeterministische Maschinen überhaupt denkbar, geschweige denn konstruierbar? Und wenn ja, was brächte dies?

Und warum sollte eine KI keine KI sein, wenn sie nur zum Zwecke einer Problemlösung da ist? Meiner Ansicht nach sind KIs zunächst nichts anderes als "Problemlöser" bzw. Programme, die auf eine "Eingabe" eine bestimmte "Ausgabe" produzieren. Ein Schriftenerkennungsprogramm würde ich sehr wohl als eine niedere Form der KI bezeichnen. Ein Übersetzungsprogramm sogar als eine höhere Form.

Was ist "Verstehen"? Letztlich ist das eine nicht meßbare Entität. Messen kann man nur, was aus der "Blackbox" wieder herauskommt. Wenn eine Aufgabe erfolgreich gelöst werden konnte, wissen wir, daß sie auch "verstanden" wurde. Aber wir können nur die Lösung messen, nicht das Verstehen. Das ist bei einem Menschen mit "echter KI" ;) nicht anders.

Wie schon gesagt, sind Annahmen über KIs, die auf anthropomorphen Vorstellungen aufbauen, für mich weniger SF als Zaubermärchen, solange der Autor keine halbwegs konkrete Vorstellung davon hat, wie diese KI funktioniert. Und idealerweise sollte er diese Ideen auch an den Leser weitergeben können.

r

 

Hast bestimmt auch "Gödel, Escher, Bach" gelesen, stimmts?
Eher Popper, Lorenz, Weizenbaum, Roth (einige leider erst sehr rudimentär...). Aber interessante Denkansätze zu dem Thema kommen ja gerade in letzter Zeit aus den verschiedensten Ecken.
Die Theorie, dass sich Intelligenz eventuell als "Nebenprodukt" hinreichend komplexer Systeme ergibt, ist in jedem Fall interessant. Wir erkennen sie womöglich nur nicht aufgrund ihrer Fremdartigkeit.
Das ist einer der Punkte, über die ich seit einiger Zeit nachdenke. Ist "Intelligenz" ein Zufallsprodukt? Kann man das künstlich nachbilden?

So, ich geh jetzt erstmal ganz intelligent was essen... :D

Gruß,
Horni

 

Nachtrag @rel:

Ich sehe dein Problem. Das mit der Anthropomorphisierung ist aber nur natürlich. Das ist schon seit den Golem-Geschichten so. Denn im Grunde schreibt der Mensch ja doch oft nur über sich selbst bzw. beleuchtet menschliche Fragen in anderem Gewand.

Insofern sind also fast alle KI-Stories, die ich so kenne, Fortführungen alter Mythen in moderner Verkleidung - und ich denke, das lässt sich auch nur schwer vermeiden, weil der normale Leser dann weder Interesse noch Zugang zu einer solchen Story haben kann, denke ich.

 

Hi relysium,

Was z.B. soll genau ein "deterministisches" von einem "nichtdeterministischem" unterscheiden?
Wenn ich den genauen Pfad, der zu einer Entscheidungsfindung führte, angeben kann, z.B. in einem Softwaresystem eine exakte Kette von Instruktionen/Programmzeilen, und wenn die Entscheidung unter gleichen Anfangsbedingungen immer genau diesen Pfad beschreitet, dann ist es deterministisch.
Bzw. sind nichtdeterministische Maschinen überhaupt denkbar, geschweige denn konstruierbar? Und wenn ja, was brächte dies?
Ich würde nach dem heutigen Wissensstand das menschliche Gehirn als nicht-deterministisch bezeichnen. Man mag einwenden, dass es einfach an seiner ungeheuren Komplexität und unserer beschränkten technischen Mittel liegt, dass wir das exakte Neuronenfeuer auf beliebigen Input nicht erfassen oder vorhersehen kann. Ich glaube allerdings, dass auf irgendeiner grundlegenden Ebene eine Art Zufallselement existiert.
Ein Übersetzungsprogramm sogar als eine höhere Form.
Da stimme ich dir ja zu, allerdings eben nicht in deiner Grundannahme, ein Übersetzungsprogramm wäre vorstellbar, welches vergleichbar gute Arbeit wie ein guter menschlicher Dolmetscher produziert, ohne einen vergleichbaren Lebenshintergrund zu besitzen. Also: Ein gutes "Übersetzungsprogramm" wäre für mich eine KI, die sich entschieden hat, Übersetzer zu sein.
Wenn eine Aufgabe erfolgreich gelöst werden konnte, wissen wir, daß sie auch "verstanden" wurde.
Kommt auf die Aufgabenstellung an. Manche Aufgaben lassen sich auch durch stures Anwenden von Regeln lösen, ohne Verständnis für die Hintergründe. Simples Beispiel wäre ein Wort-zu-Wort-Übersetzer von deutsch nach englisch. Computer können das perfekt, ohne die Wörter selbst zu verstehen.

Ganze Texte jedoch muss man verstehen, um sie adäquat zu übersetzen. Die Ergebnisse heutiger Programme sind ja bekannt. Ein Verstehen ist da noch nicht ansatzweise erkennbar.

Gruß
Rainman

 

Geschrieben von rainman
Wenn ich den genauen Pfad, der zu einer Entscheidungsfindung führte, angeben kann, z.B. in einem Softwaresystem eine exakte Kette von Instruktionen/Programmzeilen, und wenn die Entscheidung unter gleichen Anfangsbedingungen immer genau diesen Pfad beschreitet, dann ist es deterministisch.
Das habe ich befürchtet.
Ich würde nach dem heutigen Wissensstand das menschliche Gehirn als nicht-deterministisch bezeichnen.
Das ist m.E. keine Frage des Wissensstandes, sondern eine philosophische. Inwieweit ist das Universum determiniert?
In gewisser Weise wäre eine Aufhebung des Determinismus gleichzusetzen mit einer Aufhebung von Ursache und Wirkung, oder zumindest mit einer Aufweichung der Regeln. Das werden wir ohnehin nicht erschöpfend diskutieren können, deswegen will ich mit dem Thema auch gar nicht erst anfangen.
Mir leuchtet jedoch nicht ein, warum das ein Kriterium für Intelligenz sein soll.
Man mag einwenden, dass es einfach an seiner ungeheuren Komplexität und unserer beschränkten technischen Mittel liegt, dass wir das exakte Neuronenfeuer auf beliebigen Input nicht erfassen oder vorhersehen kann. Ich glaube allerdings, dass auf irgendeiner grundlegenden Ebene eine Art Zufallselement existiert.
Wenn´s weiter nichts ist: Auch im Bereich der Computertechnik gibt es Zufallsgeneratoren.
Und das macht dann Intelligenz aus?
Nee, also da kann ich beim besten Willen nicht zustimmen.
Da stimme ich dir ja zu, allerdings eben nicht in deiner Grundannahme, ein Übersetzungsprogramm wäre vorstellbar, welches vergleichbar gute Arbeit wie ein guter menschlicher Dolmetscher produziert, ohne einen vergleichbaren Lebenshintergrund zu besitzen. Also: Ein gutes "Übersetzungsprogramm" wäre für mich eine KI, die sich entschieden hat, Übersetzer zu sein.
Ich meinte durchaus ein konventionelles Programm, meinetwegen geschrieben in C, Pascal oder Prolog oder Lisp, das versucht, die Übersetzung nicht Wort für Wort sondern anhand des ganzen Satzes zu bewerkstelligen.
Daß die derzeitigen Programme das nicht können, und vielleicht nie können werden, ist dann eine These, die wieder in eine andere Richtung führt.
Nochmal: Ein Programm, das übersetzt, ist für mich KI. Eines, das gescannten Text in ASCII-Text umwandelt, ebenfalls. Systeme, die mit Hilfe eines Kamera-Auges Personen identifizieren, ebenfalls.
Kommt auf die Aufgabenstellung an. Manche Aufgaben lassen sich auch durch stures Anwenden von Regeln lösen, ohne Verständnis für die Hintergründe. Simples Beispiel wäre ein Wort-zu-Wort-Übersetzer von deutsch nach englisch. Computer können das perfekt, ohne die Wörter selbst zu verstehen.
Da verhedderst du dich. Verstehen ist keine binäre Angelegenheit. Man kann eine Sache auch nur zum Teil verstehen. Und wenn ein Computer Wort-zu-Wort übersetzt, dann hat er die Wörter soweit "verstanden", daß er sie Wort für Wort übersetzen kann.
Kannst du dir denn z.B. sicher sein, das Wort "Freiheit" in seinen Bedeutungen umfassend zu verstehen?
Wenn der Computer die Aufgabe bekommt, einen ganzen Satz grammatisch korrekt zu übersetzen, dann kann er dieses eben nicht bewerkstelligen, ohne Kenntnis von Syntax und Grammatik zu haben und ohne zu "verstehen", in welchem Kasus, Numerus und Tempus das jeweilige Wort steht. Deswegen hat er die Bedeutung der Wörtet immer noch nicht verstanden.
Vielleicht soll der Computer nun aber ein Bild einscannen mit einem Apfel darauf. Und er soll erkennen, daß es ein Apfel ist, und kein Gesicht. Dazu muß er die visuellen Grundlagen kennen und ihre Regeln "verstehen". Dennoch weiß er nicht, was ein Apfel wirklich ist. Aber er muß es für die jeweilige Aufgabe halt nicht. Ebenso, wie ein Mönch, der im 11. Jh. die Bibel abschrieb, nicht lesen können mußte.
Ich glaube nicht, daß du mir irgendein Beispiel einer Intelligenzleistung geben kannst, die nicht auf Regeln zurückzuführen wäre.
Ganze Texte jedoch muss man verstehen, um sie adäquat zu übersetzen. Die Ergebnisse heutiger Programme sind ja bekannt. Ein Verstehen ist da noch nicht ansatzweise erkennbar.
Wenn die Programme in ihrer Aufgabe versagen, ist das korrekt.
Aber auch Menschen können ja durchaus etwas mißverstehen...

r

 

Hallo relysium,

Nochmal: Ein Programm, das übersetzt, ist für mich KI. Eines, das gescannten Text in ASCII-Text umwandelt, ebenfalls. Systeme, die mit Hilfe eines Kamera-Auges Personen identifizieren, ebenfalls.
wir haben grundsätzlich verschiedene Vorstellungen von KI, scheint mir. Vorausgesetzt, du meinst mit "Programm, das übersetzt" das, was Stand heutiger Technik ist, dann halte ich keins deiner Beispiele auch nur annähernd für KI. Hier wirken doch lediglich mechanische Regeln und Mathematik. Man könnte das Verfahren, um Buchstaben zu erkennen, prinzipiell auch auf einem Stapel Papiere aufschreiben und einen besonders geduldigen Menschen bitten, es Punkt für Punkt abzuarbeiten. Das Ergebnis wäre das gleiche.
(Determinismus) Mir leuchtet jedoch nicht ein, warum das ein Kriterium für Intelligenz sein soll.
Weil, wie ich geschrieben habe, ich die Nicht-Vorhersagbarkeit des Outputs als ein wesentliches Merkmal für eine KI halte. Damit meine ich natürlich nicht, dass irgendein beliebiger Nonsens Zeichen für Intelligenz wäre. Aber nimm zwei Übersetzter und gib ihnen den gleichen Text. Das Ergebnis wäre mit Sicherheit unterschiedlich. Und selbst ein und derselbe Mensch würde mit einem Jahr Abstand den gleichen Text nicht exakt so übersetzen wie beim ersten Mal.
Wenn´s weiter nichts ist: Auch im Bereich der Computertechnik gibt es Zufallsgeneratoren.
Und das macht dann Intelligenz aus?
Naja..
Kommt wohl drauf an, auf welcher Ebene man den Zufall wirken lässt. Mit einem plumpen Zufallsgenerator ist es bestimmt nicht getan.
Vielleicht ist es auch nicht der Zufall, sondern etwas ganz Grundlegendes. Die aktuelle Forschung zu Quantencomputern könnte da vielleicht Erkenntnisse verschaffen.
Und wenn ein Computer Wort-zu-Wort übersetzt, dann hat er die Wörter soweit "verstanden", daß er sie Wort für Wort übersetzen kann.
Er hat sie überhaupt nicht verstanden. Er weiss nicht mal, dass es sich um Buchstaben handelt. Er vergleicht buchstabenäquivalente Zahlen mit gespeicherten Zahlen und ersetzt sie durch andere. Ein reiner Mechanismus.
Ich glaube nicht, daß du mir irgendein Beispiel einer Intelligenzleistung geben kannst, die nicht auf Regeln zurückzuführen wäre.
Hab ich schon, das Beispiel mit den verschiedenen Übersetzern. Nachträglich kannst du sicherlich jedes Beispiel, dass ich hier anführen könnte, auf Regeln zurückführen. Aber die gleichen Regeln könntest du nicht anwenden, um ein Ergebnis exakt vorherzusehen.

Gruß
Rainman

 

Die Entwicklung künstlicher Intelligenz scheitert eventuell daran, daß es noch nicht gelungen ist, (ausreichend) natürliche Intelligenz zu entwickeln ...

Ich denke allerdings, daß erst dann von einer echten KI die Rede sein kann, wenn diese in der Lage ist, aus sich heraus eine weitere KI zu schaffen, die von der Elter-KI genau so verschieden ist wie die Elter-KI selbst sich von uns unterscheidet. Alles Andere wäre, vereinfacht ausgedrückt, nur eine komplexere Anwendung vom Menschen erstellter Verhaltensregeln ... IF/THEN-Klauseln im astronomischen Bereich, wenn man so will.

mh

 

Ich verfolge das hier so am Rande und stelle fest, die Diskussion hat den selben Hänger, den ich selbst habe bei dieser Sache: Nämlich zu klären, was Intelligenz wirklich ist! Und je nach Perspektive kann man da zu völlig unterschiedlichen Ergebnissen kommen, die dummerweise sogar gleichzeitig richtig sein können... *grumpf*

Intelligenz = Fähigkeit, Problemlösungsstrategien zu entwickeln?

Intelligenz = Fähigkeit zur dynamischen Anpassung an den Input?

Intelligenz = Fähigkeit zur Selbstorganisation?

Ich denke, irgendwie stimmt alles.

Wie stark hängt Intelligenz von Beuwßtsein ab? Sehr stark m.E. - besonders, wenn es um emotionale Intelligenz geht, Sozialverhalten etc., das m.E. auch ein Merkmal von Intelligenz ist. Ist eine KI gut, wenn sie Empathie nachbilden kann? Spontaneität?
Irgendjemand brachte das Stichwort "Zufall" ins Spiel - ich denke, das trifft es nur halb. "Zufall" klingt sehr banal. "Kreativ" klingt ganz anders, beschreibt aber m.E. das gleiche Phänomen. Offenbar ist die Fähigkeit, Neues bzw. Verschiedenartiges zu erschaffen (aus den gleichen Anfangsbedingungen) ein wesentliches Merkmal von Intelligenz. Zumindest sehe ich das so. Ein Computer rechnet nur, aber er kann sich nichts "ausdenken".

@rel: Um dich je nachdem noch mehr zu verwirren: Zu deinem Determinismus-Problem nur ein Stichwort: "deterministisches Chaos" - Ordnung aus dem Chaos, Selbstorganisation etc. - für mich eine der Grundvoraussetzungen für natürliche Intelligenz.

 

Hallo Horni,

Nämlich zu klären, was Intelligenz wirklich ist!
Genau das hab ich ja mit meinem ersten Posting gemeint. Wir haben keine gemeinsame Definition. Im Grunde genommen ist eine Diskussion darüber sinnlos, solange das nicht geklärt ist.

Intelligenz = Fähigkeit, Problemlösungsstrategien zu entwickeln?
Ein wichtiger Aspekt, denke ich. Alles, was Probleme löst, ist irgendwo algorithmisch, mechanisch. Diese Algorithmen zu finden jedoch nicht.
Intelligenz = Fähigkeit zur dynamischen Anpassung an den Input?
Intelligenz = Fähigkeit zur Selbstorganisation?
Kannst du das etwas näher erläutern?
Sozialverhalten etc., das m.E. auch ein Merkmal von Intelligenz ist. Ist eine KI gut, wenn sie Empathie nachbilden kann?
Bin mir da unschlüssig. Ist Emotion wirklich ein Aspekt der Intelligenz? Ich würde es eher dem Gruppendruck zuordnen. Immerhin zeigen auch Tiere Emotionen.
Offenbar ist die Fähigkeit, Neues bzw. Verschiedenartiges zu erschaffen (aus den gleichen Anfangsbedingungen) ein wesentliches Merkmal von Intelligenz.
Das meine ich mit Unvorhersagbarkeit. Relysium hat geschrieben:
Meiner Ansicht nach sind KIs zunächst nichts anderes als "Problemlöser" bzw. Programme, die auf eine "Eingabe" eine bestimmte "Ausgabe" produzieren.
Das wäre Input -> Verarbeitung -> Output.
Meiner Meinung nach müsste eine KI aber mindestens so arbeiten:
Input -> Blackbox -> mehrere mögliche Antworten -> Blackbox -> Output
Das heisst, es gäbe mindestens zwei Stufen, deren Mechanismen nicht determiniert sind. Und die zweite Blackbox erzeugt Antworten, die je nach innerem Zustand der KI, z.B. Stimmung oder den letzten Erlebnissen, unterschiedlich ausfallen können.

Gruß
Rainman

 

Ganz kurz - is schon spät. ;)

Kannst du das etwas näher erläutern?
dynamische Anpassung: z.B. adaptive Verhaltenskontrolle. Du merkst, dass ein Verhalten nicht den gewünschten Erfolg hat und verhältst dich künftig anders. Oder du kannst auf Veränderugnen in deiner Umwelt spontan reagieren und dich anpassen durch Beobachtung --> Reflexion --> Projektion --> Anpassung

"Selbstorganisation" heisst z.B. die bewusste Zusammenschliessugn zu Funktionsgruppen (z.B. zur Jagd). Oder auch - grundlegender - von Zellen zu Hirnarealen. Dabei spielt Kommunikation denke ich eine wichtige Rolle!

Ist Emotion wirklich ein Aspekt der Intelligenz?
Ich würde spontan sagen: Ja. Müsste ich aber nochmal drüber nachdenken, warum und wieso das genau so ist. ;)
mmerhin zeigen auch Tiere Emotionen.
Tiere haben ja u.U. auch Intelligenz?
Das wäre Input -> Verarbeitung -> Output. [...]
Mist. Ich hatte mir da mal ein Schema erarbeitet - vielleicht finde ich das noch! Ich wühle mal...

Gruß,
Horni

 

Meiner bescheidenen Vorstellung nach ist Intelligenz im engeren Sinne die Fähigkeit, Probleme zu lösen, die zuvor nicht explizit trainiert, programmiert oder sonstwie extern eingegeben worden sind. ("Verdammt, Murphy, wie kann dieses Ding das wissen?" - "Es scheint sowas wie Intelligenz zu besitzen, faszinierend.")

Ich habe das Gefühl, Rainmans Definition ist sehr eng gefaßt und schließt einen ganzen Haufen von Verhaltensformen aus, die ich sehr wohl als intelligent bezeichnen würde. Darüberhinaus ist die Rainman´sche Intelligenz gekennzeichnet durch eine Unschärfe der Entscheidungen, die ich nicht für ausschlaggebend erachte. Es will mir nicht in den Kopf, warum etwas nicht mehr als intelligent bezeichnet werden soll, wenn mehrere Individuen zum selben Ergebnis kommen.

Wenn ich Intelligenz definieren will, dann gehe ich davon aus, was es im alltäglichen Sprachgebrauch bedeutet, und versuche zu abstrahieren. Und sorry, wenn ich da jetzt etwas autoritär daherkomme, aber Intelligenz ist nun einmal definiert als die Fähigkeit, Probleme erkennen bzw. lösen zu können. Punkt. Die sogenannte Kreativität besteht dabei darin, auch Probleme lösen zu können, die neu sind, also in der Trainigs/Erschaffungsphase nicht explizit behandelt wurden.
Wenn man es mit Leuten zu tun hat, denen Intelligenz abzusprechen ist, merkt man das ganz deutlich. Diese können nämlich nur lexikalisches Wissen anhäufen. Schlimmstenfalls können sie nur bis zu einer begrenzten Zahl zählen, weil sie nie verstanden haben, daß nach einundzwanzig deshalb zweiundzwanzig kommt, weil nach eins auch zwei kommt.

r

 

Letzte Empfehlungen

Neue Texte

Zurück
Anfang Bottom