Philosophie Lexikon der Argumente

Home Screenshot Tabelle Begriffe

 
Software-Agenten: Software-Agenten sind autonome Programme, die Aufgaben ausführen oder Entscheidungen treffen. Sie können sich anpassen, lernen und mit ihrer Umgebung interagieren, um bestimmte Ziele zu erreichen. Siehe auch Software, Computerprogrammierung, Computer, künstliche Intelligenz, maschinelles Lernen.

_____________
Anmerkung: Die obigen Begriffscharakterisierungen verstehen sich weder als Definitionen noch als erschöpfende Problemdarstellungen. Sie sollen lediglich den Zugang zu den unten angefügten Quellen erleichtern. - Lexikon der Argumente.

 
Autor Begriff Zusammenfassung/Zitate Quellen

Marvin Minsky über Software-Agenten – Lexikon der Argumente

I 169
Software-Agenten/ Ausbeutung/Minsky: Wie kann ein Spezialist (Agent) kooperieren, wenn er nicht versteht, wie die anderen arbeiten? Wir [Menschen] schaffen es, unsere (...) Arbeiten trotz der gleichen Zwangslage zu erledigen; wir haben es mit Menschen und Maschinen zu tun, ohne zu wissen, wie ihr Inneres funktioniert. Im Kopf ist es genauso; jeder Teil des Verstandes nutzt den Rest aus, ohne zu wissen, wie die anderen Teile funktionieren, sondern nur, was sie zu tun scheinen.
Angenommen, [ein Agent namens] Durst weiß, dass man Wasser in Tassen finden kann - aber er weiß nicht, wie man eine Tasse findet oder danach greift; das sind Dinge, die nur [Agenten namens] Finden und Holen tun können. Dann muss Durst eine Möglichkeit haben, die Fähigkeiten dieser anderen Agenten auszunutzen.
Problem: Die meisten [der] Unteragenten können nicht direkt miteinander kommunizieren.
>Society of Minds/Minsky
.
Keine übergeordnete Instanz könnte jemals ein komplexes Ziel erreichen, wenn sie sich mit jedem kleinen Detail dessen befassen müsste, was jeder Nerv und jeder Muskel tut. Solange die meiste Arbeit nicht von anderen Instanzen erledigt wird, könnte kein Teil einer Gesellschaft etwas Bedeutendes tun.
I 200
Software-Agenten/Minsky: Was passiert, wenn ein einzelner Agent Nachrichten an mehrere verschiedene Instanzen sendet? In vielen Fällen wird eine solche Nachricht auf jede dieser anderen Instanzen eine andere Wirkung haben.
Def Polynem/Minsky: (...) Einen solchen Agenten nenne ich ein Polynem. Zum Beispiel muss Ihr Wortagent für das Wort Apfel ein Polynem sein, weil er Ihre Instanzen für Farbe, Form und Größe in voneinander unabhängige Zustände versetzt, die die unabhängigen Eigenschaften Rot, rund und apfelgroß repräsentieren.
Aber wie konnte ein und dieselbe Botschaft so unterschiedliche Wirkungen auf so viele Wirkungsbereiche haben, wobei jede Wirkung so speziell auf die Idee des Apfels abgestimmt ist? Es gibt nur eine Erklärung: Jede dieser anderen Instanzen muss bereits ihre eigene Reaktion auf dasselbe Signal gelernt haben. Da Polyneme, wie Politiker, für verschiedene Zuhörer unterschiedliche Dinge bedeuten, muss jeder Zuhörer seine eigene, unterschiedliche Art und Weise lernen, auf diese Botschaft zu reagieren.
I 201
Um ein Polynem zu verstehen, muss jeder Wirkungsbereich seine eigene spezifische und angemessene Reaktion lernen. Jede Instanz muss über ein privates Wörterbuch oder eine Speicherbank verfügen, die ihr sagt, wie sie auf jedes Polynem reagieren soll.
>Frames/Minsky, >Terminologie/Minsky.
Realisation/recognizer: Wenn wir einen Apfel sehen, wie erkennen wir ihn als Apfel? Wir können UND-Agenten verwenden, um viele Arten der Erkennung durchzuführen, aber die Idee hat auch ernsthafte Einschränkungen.
I 202
Relevanz: Es gibt wichtige Variationen zum Thema der Abwägung von Belegen. Unsere erste Idee war, einfach die Beweisstücke zu zählen, die dafür sprechen, dass ein Objekt ein Stuhl ist.
Problem: Aber nicht alle Beweisstücke sind gleich wertvoll, so dass wir unser Schema verbessern können, indem wir den verschiedenen Arten von Beweisen unterschiedliches Gewicht beimessen.
Lösung:
Belege/Rosenblatt: 1959 erfand Frank Rosenblatt eine geniale Evidenz-Wiegemaschine namens Perceptron. Sie war mit einem Verfahren ausgestattet, das automatisch lernte, welche Gewichte zu verwenden waren, da ein Lehrer ihm sagte, welche der von ihm gemachten Unterscheidungen inakzeptabel seien.
Problem: MinskyVsRosenblatt/PapertVsRosenblatt: In dem Buch Perceptrons bewiesen Seymour Papert und ich mathematisch, dass keine Merkmalswägemaschine zwischen den beiden Arten von Mustern [eines mit verbundenen, das andere mit getrennten Leitungen] unterscheiden kann.
((s) > http://aurellem.org/society-of-mind/som-19.7.html, 27.04.2020).
I 203
Relevanz: Wenn wir die Werte dieser Evidenzgewichte ändern würden, würde dies neue Erkennungs-Agenten erzeugen. Mit einem negativen Gewicht für Rückenlehne würde der neue Agent beispielsweise Stühle ablehnen, aber Bänke, Hocker oder Tische akzeptieren.
>Neuronale Netze, >Frame-Theorien, >Künstliche Neuronale Netze.

_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der Argumente
Der Hinweis [Begriff/Autor], [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] bzw. "Problem:"/"Lösung", "alt:"/"neu:" und "These:" ist eine Hinzufügung des Lexikons der Argumente.

Minsky I
Marvin Minsky
The Society of Mind New York 1985

Minsky II
Marvin Minsky
Semantic Information Processing Cambridge, MA 2003

Send Link

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Y   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z