Geschrieben von Magranam
Meiner Meinung nach ist es erstmal wichtig Intelligenz von Bewußtsein zu trennen, und beides wiederum von Emotion.
Yo!
Bewußtsein ist, seine Existenz wahrzunehmen. Das geschieht bei Kindern, wenn sie anfangen "ich" zu sagen.
Dringen wir in dieses Thema lieber nicht zu tief ein...
Emotion, tja wer das hinreichend definieren kann, dem gratuliere ich. Für mich ist es eine Form der Triebe, derer ich mir bewußt bin. Allerdings gehört es für mich nicht zu Intelligenz. Die beiden sind für mich sogar Gegenspieler (in gewisser Weise). Wer nur nach seinen Emotionen handelt, handelt nach seinen Trieben und unterscheidet sich dadurch nicht sehr vom Tier.
Das ist eine traditionelle Denkweise, die ich nicht teile. Ich würde sogar soweit gehen und sie als definitiv unrichtig bezeichnen.
Intelligenz ist die Methodik, Probleme zu lösen.
Und die Triebe sind es, die einen Zustand erst zum Problem werden lassen.
Primitives Beispiel: Hunger. Ist ein Gefühlszustand. Der Trieb nach Nahrung ist es, der daraus erst ein Problem macht, und das lautet: "Wie stille ich den Hunger?" Aufgabe der Intelligenz ist es dann, hierauf eine Antwort zu finden.
Was du mit "Gegenspieler" gemeint hast, ist ein häufig beobachtbares Phänomen, daß innere Zustände die Intelligenz beeinträchtigen bzw. außer Kraft setzen können. Starke Emotionen, zum Beispiel.
Oder umleiten. Es ist der Regelfall, daß mehrere sich widersprechende Bedürfnisse zugleich aktiv sind. Und die Prioritäten dafür ändern sich je nach innerem Zustand.
Die Unterscheidung Tier-Mensch ziehe ich erstmal beim Bewußtsein, auch wenn das bei Tieren schwer nachzuprüfen ist. Andere Faktoren spielen natürlich auch noch rein.
Lassen wir dieses Thema besser ebenfalls...
Intelligenz hingegen ist das zielgerichtete Lösen von Problemen, und zwar nicht durch Ausprobieren (Brute Force), sondern durch rationales Denken (das Gegenstück zur Emotion) und logisches Schließen.
D´accord.
Tiere sind (je nach Evolutionsstufe intelligent). Oktopusse lernen sich unnatürlich zu verhalten, rein aufgrund der Beobachtung eines Artgenossen. Das brachte ihnen (in der Doku, die ich gesehen habe) den Vorteil, etwas zu essen zu bekommen, an das sie mit natürlichen/gewohnten Verhaltensweisen nicht hingekommen wären. Obwohl sie also triebgesteuert sind (wie wir ja auch), sind sie also intelligent.
Wie gesagt, sind das zwei verschiedene Paar Schuhe. Ein Mensch ist nicht im geringsten weniger triebgesteuert als ein Oktopus. Und das muß so sein, denn Triebe sind die einzigen Gründe, überhaupt etwas zu tun.
Ein Taschenrechner ist nicht intelligent, weil er nur Regeln anwendet, aber keine aufstellt. Er kann nicht einmal aus früheren Ergebnissen auf weitere schließen. Wenn ich 5*5 eingebe, und direkt danach nochmal, rechnet er es beim zweiten Mal wieder aus. Er weiß nicht mehr, daß das Ergebnis 25 war. Das heißt zur Intelligenz gehört neben der Selbstreflexion (ich habe daselbe schon einmal gerechnet) auch das logische Schließen (wenn 5*5 gerade eben 25 ergeben hat, ergibt sich das auch jetzt).
Ich erkläre mich mit diesem Argument einverstanden, auch wenn es in diesem speziellen Fall wesentlich effizienter ist, einfach alles neu zu rechnen, anstatt sich das Ergebnis zu merken.
Uns Menschen macht das Rechnen Arbeit, weil wir nicht dafür konstruiert worden sind. 99% von dem, was ein Erwachsener im Kopf rechnet, sind auswendig gelernte Fakten. (Es soll keiner kommen und mir sagen, er
rechnet aus, wieviel 4*8 sind.)
Wahrscheinlich verteidigen wir unsere Meinungen auch deswegen so vehement, wenn wir einmal mit Mühe eine gewonnen haben: immerhin steckt da Arbeit drin.
Ich schweife ab.
Künstliche Intelligenzen müssen also in der Lage sein, aus früheren Erfahrungen auf spätere zu schließen. Sie müssen lernen können. Solange ihnen ihre Programmierung aber nicht gestattet, ihren eigenen Code grundlegend zu verändern, sondern nur Paramterer zu speichern und zu verändern, wird der Schweißroboter nie einen Menschen töten. Er soll besser schweißen, das kann er lernen. Einen Menschen zu töten liegt völlig außerhalb seiner Programmierung. Das Töten an sich spreche ich Maschinen, die nicht explizit darauf programmiert sind, erstmal ab, da dem Tötungsvorgang ein Motiv zugrunde liegen muß. Machtstreben und so weiter sind menschliche Emotionen und Triebe.
Sehr schön. Hier hast du gerade erkannt, wozu die Triebe da sind. Und wenn wir einem Roboter nicht den Trieb zur Macht einbauen, dann kann er ihn trotz KI nicht entwickeln. Er hat nämlich keinen Grund dafür.
Natürlich kann dem Tötungsvorgang ein ganz anderes Motiv zugrunde liegen. Ich denke jetzt an einen Putzroboter, der einen bewußtlosen Menschen findet, und entscheidet, daß er ihn am besten wegräumen kann, wenn er ihn vorher zerstückelt, hehe.
Momentan sind wohl die einzigen informationstechnischen Konstrukte, die meiner Meinung nach in Richtung KI gehen, Neuronale Netze und eventuell noch generische Algorithmen. Letztere sind aber für "echte" KI eher ungeeignet, da sie nur Parameter anpassen.
Nicht ganz. Neuronale Netze sind lediglich ein anderer Ansatz zur Problemlösung, bei dem die "Programmierung" auf eine andere Ebene verlegt wurde, nämlich das Training.
Neuronale Netze haben den Nachteil, daß sie sich nicht immer so entwickeln, wie man das gerne hätte, und es kommt häufig der Punkt, wo ihre Leistung sich trotz Training nicht weiter verbessert.
Ich gebe aber zu, daß es ein vielversprechender Ansatz ist, denn wenn man den Punkt erreichen könnte, wo "der Alltag" das Training übernimmt, hätte man eine eigenständig lernende KI geschaffen.
Neuronale Netze versuchen im Prinzip das menschliche Gehirn abzubilden. Die Vernetzung der Neuronen untereinander passt sich selbständig an, allerdings muß sie im Normalfall von einem menschlichen Lehrmeister trainiert werden. Im Endeffekt hat man die Blackbox-Situation Eingabe->Blackbox->Ausgabe, da der Mensch aber nicht weiß, wie die Blackbox intern aussieht, kann er die Ergebnisse nicht vorhersagen. Ein Neuronales Netz, das sich zu einer KI entwickelt, müßte allerdings wahnsinnig komplex sein(=große Rechenleistung) und sehr allgemein gehalten.
Das ist heutzutage nicht das Problem. Eher das, daß der Mensch und auch die primitivsten Tiere eben keine Tabula rasa sind, sondern angeborene Grundlagen besitzen.
Neben einer Unmenge Sensorinformationen (also nicht nur zwei Kameras statt Augen, sondern Tast- Riech-, Geschmacks-, Temperatur- und Sonstwas-Sinn), kann es kaum auf einen speziellen Zweck trainiert sein, um in einer Geschichte eine tragende Rolle zu spielen. Sonst sind wir wieder beim Schweißroboter.
Nun, das ist ein weiteres Handicap bei den bisher üblichen neuronalen Netzen. Sie sind nur auf genau ein Problem trainierbar.
So langsam weiß ich auch nicht mehr, worauf ich hinaus will, aber vor kurzem war ein
Artikel im Spiegel (der mittlerweile leider kostet), in dem ein deutscher einen Übersetzungswettbewerb gewonnen hat, indem er Neuronale Netze verwendet hat. Er hat seinem Programm keine Regeln beigebracht, sondern ihn Beispieltexte übersetzen lassen und sie danach korrigiert. Das Progra,, schafft sich also seine eigenen Regeln, indem es aus vorherigen Erfahrungen logische Schlüsse zieht. Das ist für mich ein intelligentes Programm.
Für mich auch.
Aber ich frage mich gerade, wieviele hundert Stunden dieser Mensch mit dem Training zugebracht haben muß.
r