Philosophie Lexikon der Argumente

Home Screenshot Tabelle Begriffe

Autor/Titel Begriff Zusammenfassung Metadaten
Norvig I 64
Softwareagenten/Künstliche Intelligenz/Russell/Norvig: Agenten stützen ihre Handlungen auf eine Direktabbildung (direct mapping) von Zuständen zu Handlungen. Solche Agenten können nicht gut in Umgebungen arbeiten, in denen diese Abbildung zu groß für die Speicherung wäre und zu lange zum Erlernen benötigt würde.
Zielbasierte Agenten hingegen betrachten zukünftige Handlungen und die Zweckmäßigkeit ihrer Ergebnisse.
Problemlösende Agenten verwenden atomare Repräsentationen, (...) d.h. Zustände der Welt werden als Ganzes betrachtet, ohne dass die interne Struktur für die problemlösenden Algorithmen sichtbar ist.
Norvig I 4
Von den Computeragenten wird erwartet, dass sie mehr tun: autonom agieren, ihre Umgebung wahrnehmen, über einen längeren Zeitraum bestehen bleiben, sich an Veränderungen anpassen, Ziele schaffen und verfolgen.
Ein rationaler Agent ist einer, der so handelt, dass er das beste Ergebnis erzielt oder, wenn Unsicherheit besteht, das bestmögliche erwartete Ergebnis.
Norvig I 235
Wissensbasierte Agenten/logische Agenten: Die zentrale Komponente eines wissensbasierten Agenten ist seine knowledge base (Wissensdatenbank), kurz KB. Eine knowledge base ist eine Reihe von Sätzen. (Hier wird "Satz" als technischer Begriff verwendet. Er ist verwandt, aber nicht identisch mit den Sätzen des Englischen und anderer natürlicher Sprachen.) Jeder Satz wird in einer Sprache ausgedrückt, die als knowledge representation (Wissensrepräsentation) language bezeichnet wird und stellt eine Behauptung über die Welt dar.
Norvig I 240
Semantik: Die Semantik definiert die Wahrheit jedes Satzes in Bezug auf jede mögliche Welt.
Modell: Statt "mögliche Welt" müssen wir genauer sein und den Begriff Modell verwenden. Während man sich mögliche Welten als (potenziell) reale Umgebungen vorstellen könnte, in denen sich der Agent befinden könnte oder nicht, sind Modelle mathematische Abstraktionen, von denen jede schlichtweg die Wahrheit oder Falschheit jedes relevanten Satzes festlegt.
Norvig I 241
Knowledge base: Die KB kann als ein Set von Sätzen oder als ein einzelner Satz betrachtet werden, der alle einzelnen Sätze durchsetzt. Die KB ist falsch in Modellen, die dem widersprechen, was der Agent weiß (...).
Norvig I 242
Vollständigkeit: Ein Inferenzalgorithmus ist vollständig, wenn er jeden beinhalteten Satz ableiten kann. Glücklicherweise gibt es vollständige Inferenzverfahren für Logiken, die aussagekräftig genug sind, um mit vielen knowledge bases umzugehen.
Reale Welt: Wenn [die knowledge base] KB in der realen Welt wahr ist, dann ist jeder Satz α, der von der KB durch ein solides Inferenzverfahren abgeleitet wurde, ebenfalls in der realen Welt wahr. Während also ein Inferenzprozess auf "Syntax"-internen physikalischen Konfigurationen wie Bits in Registern oder Mustern von elektrischem Flimmern im Gehirn basiert, entspricht der Prozess
Norvig I 243
der Beziehung zur realen Welt, wobei einige Aspekte der realen Welt darum der Fall sind, weil andere Aspekte der realen Welt der Fall sind.
Grounding: Grounding [ist] die Verbindung zwischen logischen Denkprozessen und der realen Umgebung, in der der Agent existiert. Woher wissen wir insbesondere, dass KB in der realen Welt wahr ist? Eine einfache Antwort ist, dass die Sensoren des Agenten die Verbindung herstellen. Vgl. >Semantik, >Syntax; für die philosophische Diskussion siehe auch >Tatsachen/Wittgenstein, >Sachverhalte/Wittgenstein, >Fundierung.
Norvig I 257
Vorwärtsverkettung: Der vorwärtsverkettende Algorithmus (...) bestimmt, ob ein einzelnes Satzsymbol q - die Abfrage - von einer knowledge base definitiver Klauseln betroffen ist. Es beginnt mit bekannten Fakten (positive Buchstabensymbole) in der knowledge base. Wenn alle Prämissen einer Implikation bekannt sind, wird ihre Schlussfolgerung zum Satz der bekannten Fakten hinzugefügt.
Norvig I 258
Es ist leicht zu erkennen, dass die Vorwärtsverkettung solide ist: Jede Schlussfolgerung ist im Wesentlichen eine Anwendung von Modus Ponens. Auch die Vorwärtsverkettung ist abgeschlossen: Jeder damit verbundene atomare Satz wird abgeleitet. Der einfachste Weg, dies zu sehen, ist, den Endzustand der abgeleiteten Tabelle zu betrachten (nachdem der Algorithmus einen festen Punkt erreicht hat, an dem keine neuen Inferenzen möglich sind). Vgl. >Fixpunkte.
Vorwärtsverkettung ist ein Beispiel für das allgemeine Konzept des datengesteuerten Denkens - d.h. des Denkens, bei dem der Fokus der Aufmerksamkeit bei den bekannten Daten beginnt. Es kann innerhalb eines Agenten verwendet werden, um Schlussfolgerungen aus eingehenden Wahrnehmungen abzuleiten, oft ohne eine bestimmte Abfrage im Sinn zu haben.
Rückwärtsverkettung: arbeitet rückwärts von der Abfrage aus. Wenn die Abfrage q als wahr bekannt ist, ist kein Aufwand erforderlich. Andernfalls findet der Algorithmus die Implikationen in der knowledge base, deren Schlussfolgerung q ist. Wenn alle Prämissen einer dieser Implikationen wahr sein können (durch Rückwärtsverkettung), dann ist q wahr. Rückwärtsverkettung ist eine Form der zielgerichteten Argumentation. Es ist nützlich, um spezifische Fragen wie "Was soll ich jetzt tun?" und "Wo sind meine Schlüssel?" zu beantworten. Häufig sind die Kosten für die Rückwärtsverkettung in der Größe der Wissensbasis viel geringer als linear, da der Prozess nur relevante Fakten berührt.
Norvig I 275
Geschichte: John McCarthys Beitrag "Programs with Common Sense" (McCarthy, 1958(1), 1968(2)) verkündete den Begriff der Agenten, die mit logischem Denken zwischen Wahrnehmungen und Handlungen vermitteln. Allen Newells (1982)(3) Artikel "The Knowledge Level" stellt fest, dass rationale Akteure auf einer abstrakten Ebene, die durch das Wissen definiert ist, das sie besitzen, und nicht durch die Programme, die sie ausführen, beschrieben und analysiert werden können. Die deklarativen und prozeduralen Ansätze zur KI werden von Boden (1977)(4) eingehend analysiert. Die Debatte wurde unter anderem von Brooks (1991)(5) und Nilsson (1991)(6) wiederbelebt und dauert bis heute an (Shaparau et al., 2008)(7). Inzwischen hat sich der deklarative Ansatz auch auf andere Bereiche der Informatik ausgeweitet, wie z.B. Networking (Loo et al., 2006)(8).
Norvig I 278
Ist-Zustand: Der aktuelle Stand des theoretischen Verständnisses wird in Achlioptas (2009)(9) zusammengefasst. Die satisfiability threshold conjecture (SAT/erfüllbare Schwelle) besagt, dass es für jedes k einen scharfen satisfiability threshold rk gibt, sodass, wie die Anzahl der Variablen n→∞, Instanzen unterhalb des threshold mit Wahrscheinlichkeit 1 erfüllt werden können, während diejenigen oberhalb des threshold mit Wahrscheinlichkeit 1 nicht erfüllt werden können. Die Vermutung wurde von Friedgut (1999)(10) nicht ganz bewiesen: Es gibt einen scharfen threshold, aber seine Lage könnte von n abhängen, selbst wenn n → ∞. Trotz signifikanter Fortschritte bei der asymptotischen Analyse der Position des threshold für große k (Achlioptas und Peres, 2004(11); Achlioptas et al., 2007(12)), kann für k=3 nur nachgewiesen werden, dass sie im Bereich[3.52,4.51] liegt.
Die aktuelle Theorie legt nahe, dass ein Spitzenwert in der Laufzeit eines SAT-Solvers nicht unbedingt mit dem satisfiability threshold zusammenhängt, sondern mit einem Phasenübergang in der Lösungsverteilung und -struktur von SAT-Instanzen. Empirische Ergebnisse aufgrund von Coarfa et al. (2003)(13) unterstützen diese Ansicht. Tatsächlich nutzen Algorithmen wie die survey propagation (Parisi und Zecchina, 2002(14); Maneva et al., 2007(15)) die besonderen Eigenschaften zufälliger SAT-Instanzen in der Nähe des satisfiability threshold und übertreffen die allgemeinen SAT-Solver in solchen Fällen erheblich.
Neuronale Netze: Die Idee, Agenten mit propositionaler Logik zu erschaffen, lässt sich auf das bahnbrechende Paper von McCulloch und Pitts (1943)(16) zurückführen, das das Feld der neuronalen Netze initiierte. >Rahmenproblem, >Umgebung/KI-Forschung, >Universum/KI-Forschung, >Entscheidungen/KI-Forschung, >Unsicherheit/KI-Forschung.


1. McCarthy, J. (1958). Programs with common sense. In Proc. Symposium on Mechanisation of
Thought Processes, Vol. 1, pp. 77–84.
2. McCarthy, J. (1968). Programs with common sense. In Minsky, M. L. (Ed.), Semantic Information
Processing, pp. 403–418. MIT Press.
3. Newell, A. (1982). The knowledge level. AIJ, 18(1), 82–127.
4. Boden, M. A. (1977). Artificial Intelligence and Natural Man. Basic Books
5. Brooks, R. A. (1991). Intelligence without representation. AIJ, 47(1–3), 139–159.
6. Nilsson, N. J. (1991). Logic and artificial intelligence. AIJ, 47(1–3), 31–56.
7. Shaparau, D., Pistore, M., and Traverso, P. (2008). Fusing procedural and declarative planning goals for nondeterministic domains. In AAAI-08.
8. Loo, B. T., Condie, T., Garofalakis, M., Gay, D. E., Hellerstein, J. M., Maniatis, P., Ramakrishnan, R.,
Roscoe, T., and Stoica, I. (2006). Declarative networking: Language, execution and optimization. In
SIGMOD-06.
9. Achlioptas, D. (2009). Random satisfiability. In Biere, A., Heule, M., van Maaren, H., and Walsh, T.
(Eds.), Handbook of Satisfiability. IOS Press.
10. Friedgut, E. (1999). Necessary and sufficient conditions for sharp thresholds of graph properties, and
the k-SAT problem. J. American Mathematical Society, 12, 1017–1054.
11. Achlioptas, D. and Peres, Y. (2004). The threshold for random k-SAT is 2k log 2−o(k). J. American Mathematical Society, 17(4), 947–973.
12. Achlioptas, D., Naor, A., and Peres, Y. (2007). On the maximum satisfiability of random formulas.
JACM, 54(2).
13. Coarfa, C., Demopoulos, D., Aguirre, A., Subramanian, D., and Yardi, M. (2003). Random 3-SAT: The plot thickens. Constraints, 8(3), 243–261.
14. Parisi, M. M. G. and Zecchina, R. (2002). Analytic and algorithmic solution of random satisfiability problems. Science, 297, 812–815.
15. Maneva, E., Mossel, E., and Wainwright, M. J. (2007). A new look at survey propagation and its generalizations. JACM, 54(4).
16. McCulloch, W. S. and Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity.
Bulletin of Mathematical Biophysics, 5, 115–137.


_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders.
Der Hinweis [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] ist eine Hinzufügung des Lexikons der Argumente.

Norvig I
Peter Norvig
Stuart J. Russell
Artificial Intelligence: A Modern Approach Upper Saddle River, NJ 2010

Send Link
> Gegenargumente gegen Norvig

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z