Was ist neu

realistische KI in SF

Hi relysium,

Meiner bescheidenen Vorstellung nach ist Intelligenz im engeren Sinne die Fähigkeit, Probleme zu lösen, die zuvor nicht explizit trainiert, programmiert oder sonstwie extern eingegeben worden sind.
Nichts gegen einzuwenden, allerdings denke ich, das ist nur ein Aspekt von mehreren. Ich frage mich dann allerdings, wo diese Fähigkeit in OCR-Programmen, Gesichtserkennern und Schweißrobotern zu finden ist.
Es will mir nicht in den Kopf, warum etwas nicht mehr als intelligent bezeichnet werden soll, wenn mehrere Individuen zum selben Ergebnis kommen.
Das ist eine unzulässige Verallgemeinerung. Ich bin der Meinung, dass potentielle Unvorhersagbarkeit des Ergebnisses ein Merkmal für Intelligenz ist. Damit ist aber doch nicht ausgeschlossen, dass je nach Aufgabenstellung doch mal zwei oder mehr Ergebnisse übereinstimmen.

Nochmal:
Nimm zwei oder mehr beliebige Übersetzer und setze sie auf ein Buch an. Keine zwei Exemplare der Übersetzungen werden identisch sein.
Nimm einen Übersetzer und lasse ihn das Buch beliebig oft übersetzen, mit hinreichenden zeitlichen Abständen, etwa ein Jahr. Kein Exemplar wird dem anderen gleichen.
Nimm ein beliebiges Übersetzungsprogramm und lass es ein Buch mehrmals übersetzen. Alle Exemplare sind identisch.

Natürlich gibt es viele Aufgabenstellungen, die nur eine einzige (korrekte) Lösung zulassen, und jeder, der sie korrekt löst, kommt auf das exakt gleiche Ergebnis. Menschen (oder vielleicht auch mal KIs) können aber prinzipiell, je nach Tagesform/Fähigkeiten usw, ein ganzes Spektrum an Lösungen finden, nämlich genau eine richtige und viele falsche. Erweist sich die Lösung als falsch, kann ein Mensch noch mal drangehen und findet vielleicht eine andere.
Unintelligente Software wird immer genau eine Lösung finden, ob richtig oder falsch, egal, wann sie läuft oder unter welchen Bedingungen oder wie oft.

Gruß
Rainman

 
Zuletzt bearbeitet:

Meiner bescheidenen Vorstellung nach ist Intelligenz im engeren Sinne die Fähigkeit, Probleme zu lösen, die zuvor nicht explizit trainiert, programmiert oder sonstwie extern eingegeben worden sind.
Ich frage mich dann allerdings, wo diese Fähigkeit in OCR-Programmen, Gesichtserkennern und Schweißrobotern zu finden ist.
Überleg doch mal: Der Programmierer des OCR-Programms konnte unmöglich wissen, was für einen Text du später mal in den Scanner legst.
Nimm einen Übersetzer und lasse ihn das Buch beliebig oft übersetzen, mit hinreichenden zeitlichen Abständen, etwa ein Jahr. Kein Exemplar wird dem anderen gleichen.
Das mag ja alles sein, aber das ist doch kein Kriterium für Intelligenz! Sicher wäre der Kerl unheimlich, wenn er immer dasselbe Ergebnis lieferte, aber das Phänomen ist doch eher als Zeichen dafür anzusehen, daß es zum einen keine einzig richtige Lösung gibt, und zum anderen der "Geisteszustand" eines Menschen sich stetig verändert, beeinflußt von 1000 Faktoren. Intelligenz kann dadurch auch verloren gehen.
Meiner Ansicht nach ist das nichts als Unvollkommenheit.

r

 

Geschrieben von rainman
Unintelligente Software wird immer genau eine Lösung finden, ob richtig oder falsch, egal, wann sie läuft oder unter welchen Bedingungen oder wie oft.
Zu diesem Punkt noch:
Ich hatte mal die Aufgabe, in einer Wirtschaftssimulation die Gegner-KI zu designen. Diese hat gnadenlos nachgerechnet, was der beste nächste Zug sei, und ihn gemacht. Dagegen hatte kein menschlicher Spieler eine Chance (obgleich die ja intelligent waren, und die KI nicht, hehe), bzw. beim zweiten Durchspielen desselben Szenarios wußte der Spieler, was die perfekte KI in dieser Situation gemacht hatte, und machte es dann selber.
Also war meine Aufgabe, die KI soweit zu "verdummen", daß sie zwar noch intelligent spielte, aber nicht immer dasselbe machte. D.h. sie sollte eben nicht einfach nur das Optimum finden. Dazu habe ich sie einige Lösungswege einfach nicht durchrechnen lassen. Um es auf die Spitze zu treiben, habe ich eine Persönlichkeitsprofil-Datenbank angelegt, so daß die KI - obgleich nur ein Code dahinterstand - mehrere Computergegner verwalten konnte, mit je nach Profil unterschiedlichen Vorlieben, Schwächen und Stärken, unterschiedlichem Aggressionslevel etc.
Dies machte die KI zwar menschlicher, aber wie ich finde, nicht intelligenter. Die kalte, maschinelle Intelligenz vom Anfang war Intelligenz in Reinstform. Sie war darauf angelegt, zu gewinnen, und das hat sie getan. Mehr wird von der Definition einer Intelligenz nicht verlangt. Zumindest nicht in meinem Zeichensystem, hehe.

r

 

Intelligenz = Effizienz??? Sorry, rel - aber daran hab ich doch ernste Zweifel!!!

 

Die kalte, maschinelle Intelligenz vom Anfang war Intelligenz in Reinstform. Sie war darauf angelegt, zu gewinnen, und das hat sie getan.
Es ist diese Aussage, die mich irritiert. Denn im Grunde haben wir es hier m.E. nur mit einem Algorithmus zu tun, der bestimmte Probleme unter bestimmten Bedingungen sehr effizient löst. Aber das allein macht für mich noch keine Intelligenz aus. Denn das Gewinnen ist ein spezielles Problem, für das eine spezielle Lösung gefunden wurde. Sie mag je nachdem recht komplex sein. Aber das alleine heisst m.E. noch nicht viel.

Ist dieser Algorithmus z.B. in der Lage, bei Wegfall einer Ressource eine Alternative zu erschließen? Sein Verhalten zu modifizieren, wenn sich die Rahmenbedingungen signifikant ändern? Ist er in der Lage, sich nicht für den effizientesten Weg zu entscheiden, weil andere Wege evtl. bestimmte Vorteile haben, die sich nicht aus einer simplen Kosten-Nutzen-Rechnung bestimmen lassen? Oder - ganz wichtig! - selbstständig seine Ziele zu modifizieren oder neue und evtl. völlig andere für sich zu formulieren? Ist er fähig zu Dingen wie Kooperation, spontaner Kommunikation, eigenmächtiger Interaktion mit anderen Algorithmen? Sobald er das kann, würde ich ihn als ernsthaft "intelligent" bezeichnen. Vorher ist er nur eine hochspezialisierte Maschine. Das sind ein Schweißautomat oder ein Navigationssystem fürs Auto aber auch...

Es ist halt das alte Schachcomputer-Problem: Ein Schachcomputer kann Züge berechnen - und das sehr schnell! - und sie anhand bestimmter Kriterien bewerten. Aber ansonsten, und damit meine ich wirklich alles andere, ist er dumm wie Brot. Und das ist für mich doch ein bißchen was anderes - um nicht zu sagen: was völlig anderes - als "Intelligenz in Reinstform"! ;)

You see?

 

Horni, deine Argumentation konsequent weitergedacht besitzt niemand Intelligenz, auch Menschen nicht, allenfalls Gott.

r

 

Hallo relysium,

Überleg doch mal: Der Programmierer des OCR-Programms konnte unmöglich wissen, was für einen Text du später mal in den Scanner legst.
Genau deswegen hat er u.A. Matrix-Operationen und Wahrscheinlichkeitsrechungen, also Mathematik eingebaut. Bleibt aber trotzdem ein sturer Algorithmus. Eine Intelligenzleistung fand schon viel früher statt, beim Programmierer mit dem Programm als Output, nicht vom Programm mit der Erkennungsleistung. Man könnte das Programm als kristallisierte Intelligenz bezeichnen, aber das gilt auch für meine Textverarbeitung.
Sicher wäre der Kerl unheimlich, wenn er immer dasselbe Ergebnis lieferte, aber das Phänomen ist doch eher als Zeichen dafür anzusehen, daß es zum einen keine einzig richtige Lösung gibt,
Es ist ein Beispiel. Ein anderes hatte ich weiter unten genannt.
und zum anderen der "Geisteszustand" eines Menschen sich stetig verändert, beeinflußt von 1000 Faktoren. Intelligenz kann dadurch auch verloren gehen.
Natürlich, habe nichts anderes behauptet. Im Gegensatz zu einem Programm, das durch nichts abgelenkt wird in seiner Entscheidungsfindung.
Meiner Ansicht nach ist das nichts als Unvollkommenheit.
Du wirst vermutlich jetzt vollends an die Decke gehen, wenn ich sage, dass ich genau diese Unvollkommenheit als eine zwangsläufige Eigenschaft von Intelligenz halte :)

Gruß
Rainman

 

Nachtrag:

Die kalte, maschinelle Intelligenz vom Anfang war Intelligenz in Reinstform. Sie war darauf angelegt, zu gewinnen, und das hat sie getan.
Man kann viele Spiele so programmieren, dass der Computerspieler immer gewinnt, oder dass immer der gewinnt, der den ersten Zug macht. Sind halt vollständig analysierbare Spiele. Auch Schach gehört prinzipiell in diese Kategorie, die vollständige Analyse scheitert aber am exponentiellen Wachstum der Zugmöglichkeiten.
Es ist heutzutage üblich, von einer "Gegner-KI" bei computergesteuerten Akteuren zu sprechen. Klingt gut, verkauft sich gut, hat aber für mich mit Intelligenz nichts zu tun. Auch dann nicht, wenn ein Zufallsgenerator oder Ähnliches dafür sorgt, dass manchmal nur der zweitbeste oder drittbeste Zug gemacht wird.
Auch hier steckt die Intelligenz in der Vorleistung des Programmierer.

Gruß
Rainman

 

Geschrieben von relysium
Horni, deine Argumentation konsequent weitergedacht besitzt niemand Intelligenz, auch Menschen nicht, allenfalls Gott.
Ähm... um es mal wissenschaftlich auszudrücken: Hä??? :susp:

Also ist jeder, der schlauer als ein Schachprogramm ist, Gott???

Sorry, aber das versteh ich nicht...

Mein Standpunkt war lediglich:
Computeralgorithmen sind i.d.R. ziemlich doof und erfüllen m.E. nicht alle Kriterien, die ich für "Intelligenz" nötig finde.

Andere Wesen, z.B. Menschen sind intelligenter, weil sie ein paar Sachen mehr können (s.o.).

Wie du aus dieser Argumentation zu deiner obigen Aussage kommst, ist mir leider absolut schleierhaft. Oder bin ich nur nicht intelligent genug?

 

Hallo Horni,

Ist er in der Lage, sich nicht für den effizientesten Weg zu entscheiden, weil andere Wege evtl. bestimmte Vorteile haben, die sich nicht aus einer simplen Kosten-Nutzen-Rechnung bestimmen lassen?
Widerspricht sich das nicht? Wenn ich mir Vorteile verspreche, dann doch zwangsläufig aufgrund einer Kosten-Nutzung-Rechnung, oder? Kannst du mal ein Beispiel nennen?

Gruß
Rainman

 

Oops - okay, das war wohl etwas doof formuliert..

Was ich meinte war, dass es ja u.U. die Möglichkeit gibt, den primären Nutzen hintenanzustellen, weil man einen anderen entdeckt hat, der evtl. längerfristig sogar größer ist (Modifizierung des Ziels eben), z.B. - ganz banal - Verzicht auf Profit zugunstens des Umweltschutzes oder sowas.

Natürlich steckt da immer irgendwie eine Kosten-Nutzen-Rechnung dahinter. Obwohl.... könnte man einer KI z.B. auch selbstloses Verhalten beibringen? Sie motivgesteuert machen? Und z.B. Liebe als Parameter ins Spiel bringen?

(Wobei man natürlich leicht fragen könnte, ob es sowas wie "selbstlos" überhaupt gibt, aber das ist ein anderes Thema...)

 

Hallo Horni,

Was ich meinte war, dass es ja u.U. die Möglichkeit gibt, den primären Nutzen hintenanzustellen, weil man einen anderen entdeckt hat, der evtl. längerfristig sogar größer ist (Modifizierung des Ziels eben), z.B. - ganz banal - Verzicht auf Profit zugunstens des Umweltschutzes oder sowas.
dazu sind die Top-Schachprogramme heutzutage schon in der Lage, z.B. Verzicht auf den Gewinn einer Figur, um stattdessen lieber in ein vorteilhaftes Endspiel zu gelangen. Das ist nicht unbedingt so trivial, wie es sich anhört - der konkrete Gewinn des Spiels kann dabei durchaus noch hinter dem Rechenhorizont des Programms liegen.
könnte man einer KI z.B. auch selbstloses Verhalten beibringen? Sie motivgesteuert machen? Und z.B. Liebe als Parameter ins Spiel bringen?
Zum Thema Intelligenz und Gefühle hab ich immer noch keine Meinung. :)

Gruß
Rainman

 

Hi, Rainman!

dazu sind die Top-Schachprogramme heutzutage schon in der Lage [...]Das ist nicht unbedingt so trivial, wie es sich anhört - der konkrete Gewinn des Spiels kann dabei durchaus noch hinter dem Rechenhorizont des Programms liegen.
Klingt interessant. Weil man hier ja wohl offensichtlich nicht mehr mit "Brute Force"-Methodik vorgeht, sondern evtl. versucht, das Strategie-Modul des Menschen nachzubilden - wie auch immer das konkret funktionieren mag, da müsste ich mich nochmal schlau machen...
Zum Thema Intelligenz und Gefühle hab ich immer noch keine Meinung. :)
Ich irgendwie schon - aber die ist z.Z.t noch eher so intuitiv... ;)

Ich denk da noch mal drauf rum.

Gruß,
Horni

 

Nur so zwischendurch ein kleiner Einfall:

Ein entscheidender Unterschied zwischen einem menschlichen Schachspieler und einem Programm ist evtl. die Intuition - afaik kann man die bislang noch nicht so richtig nachbilden. Evtl. weil Intutition als Phänomen selbst noch ziemlich nebulös ist? Keine Ahnung... Geez, ich müsste verdammt noch mal viel mehr lesen... *grummel*

 

Argh, schon 3 Seiten, und anstelle einer literarischen Diskussion stecken wir fest in der Definition von Intelligenz.

Geschrieben von Horni
Also ist jeder, der schlauer als ein Schachprogramm ist, Gott???

Sorry, aber das versteh ich nicht...

Mein Standpunkt war lediglich:
Computeralgorithmen sind i.d.R. ziemlich doof und erfüllen m.E. nicht alle Kriterien, die ich für "Intelligenz" nötig finde.

Andere Wesen, z.B. Menschen sind intelligenter, weil sie ein paar Sachen mehr können (s.o.).

Wie du aus dieser Argumentation zu deiner obigen Aussage kommst, ist mir leider absolut schleierhaft. Oder bin ich nur nicht intelligent genug?

Putzige Frage :D
Was du da alles voraussetzt, bevor du den Begriff "Intelligenz" zugestehst, ist für mich nicht mehr nur einfach Intelligenz, sondern überragende Intelligenz. Die Mehrzahl der Menschen kann das nicht leisten, was du da aufgezählt hast.
Ich habe darüber durchaus nachgedacht, aber ich komme immer wieder zu dem Schluß, daß auch wir Menschen nur Regeln abarbeiten, und daß wir in unseren Zielen nicht frei sind. Unser Gehirn funktioniert auch nach dem Prinzip von Eingabe-Verarbeitung-Ausgabe, und wir sind stofflich, d.h. rein theoretisch könnte man Gedankengänge auf ihre Kausalität hin analysieren, wenn es möglich wäre, alle Neuronen zugleich zu vermessen (Auf diese Weise wäre übrigens Telepathie vorstellbar, aber das führt jetzt zu weit).

Ich gestehe zu, daß es bislang keine künstlichen Intelligenzen gibt, die dem Leistungsspektrum des Menschen auch nur annähernd näherkommen, aber das sind für mich irgendwie nur quantitative Aspekte.
Das einzige, wo ich eventuell ein Zugeständnis machen kann, ist die Fähigkeit, selbst Regeln aufzustellen. Ich bin allerdings selbst Programmierer, und ich sehe auch in diesem Bereich nicht soo das Problem. Aus meiner Sicht ist das Problem mit der künstlichen Intelligenz zweierlei:
1. Der Maschine Sinne verleihen. Das ist eine ungeheuer komplexe Angelegenheit. Inzwischen beginnt man einige neurokybernetische Prozesse zu verstehen, aber es ist für unseren kleinen Verstand ungeheuer schwer, das nachzuvollziehen - was aber nichts damit zu tun hat, daß es sich hier nicht um Regeln handeln würde. Man muß die Dinge nicht so mystifizieren. Seht euch mal an, wie eine Fourier-Transformation funktioniert. Reine Mathematik, aber wer das versteht, der ist gut. Oder versucht eine Formel zu finden für drei Festkörper (Sonnen), die sich gegenseitig umkreisen. Ha, ihr findet ja noch nicht einmal die Nullstellen eines Polynoms dritten Grades ohne komplexe Zahlen zu bemühen.
2. Man muß erst einen ungeheuren Berg an Vorleistung schaffen muß, bevor sich das "Perpetuum mobile" in Gang setzt. Der Mensch ist, so wie jedes Tier auch mit angeborenem Wissen und Fähigkeiten ausgestattet.

Wenn mich einer bezahlen würde, tät ich ich gerne in diesem Bereich verdingen. Ich bin der Ansicht, selbstorganisierende KI ist möglich. Und zwar rein regelbasiert.

r

 

Sorry, aber wenn ich das nur ganz oberflächlich bis zur Mitte denke, ist irgendwie jedes Computerprogramm, das eine Aufgabe erfüllt, eine KI. Das kann es doch wohl auch nicht sein, oder?

Also, um es mal so zu formulieren: Eine KI, die ich persönlich literarisch verwerten würde, sollte schon etwas mehr sein als ein aufgemotztes "Hello World!", um bei mir als KI durchzugehen. ;)

 

Ein "Hello, World" ist vielleicht nicht das, was ich unter KI verbuchen würde, denn da ist kein Problem, das zu lösen ist.
Wenn wir daran gehen, einen Taschenrechner zu betrachten, wird es schon interessanter. Er hat nicht tabellarisch alle Rechenaufgaben der Welt gespeichert und kann doch einiges lösen.
Natürlich wird ein Aufschrei durch die Runde gehen, wenn ich das schon eine KI nenne. So recht wohl ist mir dabei selber nicht, zugegeben.
Aber es ist, wie ich finde, eben kein binär abgrenzbarer Begriff. Ebenso, wie man nicht sagen kann, ab wieviel Haaren man eine Glatze hat oder eben nicht.

Ich glaube, ein gutes Kriterium, mit dem ich leben kann, ist das Finden einer neuen Regel. Echte Intelligenz ist, eine Regel selbst aufstellen zu können.

Was meint ihr?

r

 

Hmmm.... also als eine von mehreren auf jeden Fall.

Ich würde evtl. noch den Turing-Test (heisst der so?) dazunehmen. Wenn ein Mensch die Reaktionen der KI nicht mehr von einem Menschen unterscheiden kann.

 

Hi relysium,

Ich glaube, ein gutes Kriterium, mit dem ich leben kann, ist das Finden einer neuen Regel. Echte Intelligenz ist, eine Regel selbst aufstellen zu können.
Ich glaube, etwas Ähnliches hat Horni mit "dynamische Anpassung" gemeint.
Wobei Regeln auch verändert, negiert, gelöscht und von anderen Regeln abhängig gemacht werden können. Sich widersprechende Regeln müssen gleichberechtigt existieren können, mit anderen Regeln, die festlegen, wann welche Regeln zum Einsatz kommen dürfen. Der Einsatz dieser Metaregeln muss natürlich klar geregelt sein. Wenn es die Situation erfordert, sollte noch genug Flexibilität übrigbleiben, um Metaregeln jeder Ebene notfalls zu modifizieren oder sogar zu verwerfen.

Ich hätte jetzt Lust, eine zu rauchen. Warum hab ich das? Körperliche Signale, dass der Nikotinpegel zu gering ist? Dann müsste es eine Regel geben, die besagt: Wenn Nikotinpegel zu gering, dann rauchen. Warum kommt diese Regel aber zum Einsatz? Aufgrund einer Metaregel, die lautet: Wenn Nikotinpegel zu gering und Regel auf niedrigerer Stufe vorhanden, die "geringer Nikotinpegel" als Bedingung enthält, diese anwenden. Und so weiter.

Alternative: Eine "Hauptschleife", die sofort die passende Regel anwendet. Wenn wir nicht sofort wieder in die gleiche Rekursion verfallen wollen wie oben, dann kann diese Hauptschleife nicht ebenfalls aus Regeln bestehen. Woraus dann?

Gruß
Rainman

 

Letzte Empfehlungen

Neue Texte

Zurück
Anfang Bottom