Philosophie Lexikon der Argumente

Home Screenshot Tabelle Begriffe

 
Vorwissen: Vorwissen oder Vorkenntnisse sind die Informationen und Fähigkeiten, über die ein Lernender bereits verfügt, bevor er sich mit einem neuen Thema beschäftigt. Siehe auch Wissen, Lernen, Verstehen, Künstliche Intelligenz.

_____________
Anmerkung: Die obigen Begriffscharakterisierungen verstehen sich weder als Definitionen noch als erschöpfende Problemdarstellungen. Sie sollen lediglich den Zugang zu den unten angefügten Quellen erleichtern. - Lexikon der Argumente.

 
Autor Begriff Zusammenfassung/Zitate Quellen

Peter Norvig über Vorwissen – Lexikon der Argumente

Norvig I 777
Vorwissen/KI-Forschung/Norvig/Russell: Um die Rolle des Vorwissens zu verstehen, müssen wir über die logischen Beziehungen zwischen Hypothesen, Beispielbeschreibungen und Klassifikationen sprechen. Wir nehmen an, dass die Beschreibungen die Verbindung aller Beispielbeschreibungen im Trainingsset bezeichnen und dass die Klassifikationen die Verbindung aller Beispielklassifikationen bezeichnen. Dann muss eine Hypothese, die "die Beobachtungen erklärt", die folgende Eigenschaft erfüllen (denken Sie daran, dass |= "logisch bedingt" bedeutet):

Hypothese ∧ Beschreibungen|= Klassifikationen.

Zwangsbedingung (engl. entailment constraint): Wir nennen diese Art von Beziehung eine Zwangsbedingung, bei der die Hypothese das "Unbekannte" ist. Rein induktives Lernen bedeutet die Lösung dieser Beschränkung, wobei die Hypothese aus einem vordefinierten Hypothesenraum entnommen wird. >Hypothesen/KI-Forschung.
Software-Agenten/Wissen/Lernen/Norvig: Der moderne Ansatz besteht darin, Software-Agenten zu entwerfen, die bereits etwas wissen und versuchen, noch etwas dazu zu lernen. Ein autonomer Lernagent, der Hintergrundwissen verwendet, muss sich das Hintergrundwissen in erster Linie irgendwie beschaffen (...). Diese Methode muss selbst ein Lernprozess sein. Die Lebensgeschichte des Software-Agenten ist daher durch eine kumulative oder inkrementelle Entwicklung gekennzeichnet.
Norvig I 778
Lernen mit Hintergrundwissen: ermöglicht ein viel schnelleres Lernen, als man es von einem reinen Einführungsprogramm erwarten würde.
Erklärungsbasiertes Lernen/EBL: EBL erfüllt die folgenden Zwangsbedingungen (entailment constraints):

Hypothese ∧ Beschreibungen |= Klassifikationen
Hintergrund |= Hypothese.

Norvig I 779
(...) man dachte zunächst, es sei möglich von Beispielen zu lernen. Da es aber voraussetzt, dass das Hintergrundwissen ausreicht, um die Hypothese zu erklären, was wiederum die Beobachtungen erklärt, lernt der Software-Agent eigentlich nichts sachlich Neues aus dem Beispiel. Der Software-Agent hätte das Beispiel aus dem ableiten können, was er bereits wusste, auch wenn dies einen unangemessen hohen Rechenaufwand erfordert hätte. EBL wird heute als eine Methode zur Umwandlung von Theorien der ersten Prinzipien in nützliches, zweckgebundenes Wissen angesehen.
Relevanz/Beobachtungen/RBL: Der Vorwissenshintergrund betrifft die Relevanz einer Reihe von Merkmalen für das Zielprädikat. Dieses Wissen, zusammen mit den Beobachtungen, erlaubt es dem Software-Agenten, eine neue, allgemeine Regel abzuleiten, die die Beobachtungen erklärt:

Hypothese ∧ Beschreibungen |= Klassifikationen ,
Hintergrund ∧ Beschreibungen ∧ Klassifikationen |= Hypothese.

Wir nennen diese Art von Generalisierung relevanzbasiertes Lernen oder RBL. (...) Das RBL macht zwar vom Inhalt der Beobachtungen Gebrauch, stellt aber keine Hypothesen auf, die über den logischen Inhalt des Hintergrundwissens und der Beobachtungen hinausgehen. Es handelt sich um eine deduktive Form des Lernens und kann für sich allein nicht die Schaffung von neuem Wissen von Grund auf begründen.
Zwangsbedingung (entailment constraint):

Hintergrund ∧ Hypothese ∧ Beschreibungen |= Klassifikationen.

Das heißt, das Hintergrundwissen und die neue Hypothese verbinden sich zur Erklärung der Beispiele.
Wissensbasiertes induktives Lernen/KBIL-Algorithmen: Algorithmen, die [die Zwangsbedingung] erfüllen, werden als wissensbasierte Algorithmen für induktives Lernen oder als KBIL-Algorithmen bezeichnet. KBIL-Algorithmen (...) wurden hauptsächlich im Bereich der induktiven Logikprogrammierung (ILP) untersucht.
Norvig I 780
Erklärungsbasiertes Lernen (EBL): Die Grundidee von Memo-Funktionen besteht darin, eine Datenbank mit Input-Output-Paaren anzuhäufen; wenn die Funktion aufgerufen wird, überprüft sie zunächst die Datenbank, um zu sehen, ob es vermeiden werden kann, das Problem von vorne aufzurollen. Erklärungsbasiertes Lernen geht viel weiter, indem allgemeine Regeln erstellt werden, die eine ganze Klasse von Fällen abdecken.
Norvig I 781
Allgemeine Regeln: Die Grundidee hinter EBL besteht darin, zunächst eine Erklärung der Beobachtung mit Hilfe von Vorkenntnissen zu konstruieren und dann eine Definition der Klasse von Fällen zu erstellen, für die dieselbe Erklärungsstruktur verwendet werden kann. Diese Definition bildet die Grundlage für eine Regel, die alle Fälle der Klasse abdeckt.
Erklärung: Die "Erklärung" kann ein logischer Beweis sein, aber ganz allgemein kann es sich um einen beliebigen Argumentations- oder Problemlösungsprozess handeln, dessen Schritte gut definiert sind. Der Schlüssel liegt darin, in der Lage zu sein, die notwendigen Voraussetzungen dafür zu erkennen, dass dieselben Schritte auf einen anderen Fall zutreffen.
Norvig I 782
EBL: 1. Anhand eines Beispiels unter Verwendung des verfügbaren Hintergrundwissens einen Beweis konstruieren, dass das Zielprädikat auf das Beispiel zutrifft.
Norvig I 783
2. Parallel dazu einen verallgemeinerten Beweisbaum für das variabilisierte Ziel konstruieren unter Verwendung derselben Inferenzschritte wie im ursprünglichen Beweis.
3. Konstruktion einer neuen Regel, deren linke Seite aus den Blättern des Beweisbaums besteht und deren rechte Seite das variabilisierte Ziel ist (nach Anwendung der notwendigen Bindungen aus dem generalisierten Beweis).
4. Fallenlassen aller Bedingungen von der linken Seite, die unabhängig von den Werten der Variablen im Ziel wahr sind.
Norvig I 794
Inverse Auflösung: Die inverse Auflösung basiert auf der Beobachtung, dass wenn die Beispielklassifikationen aus: Hintergrund ∧ Hypothese ∧ Beschreibungen folgt, dann muss man diese Tatsache durch Auflösung beweisen können (weil die Auflösung vollständig ist). Wenn wir den Beweis "rückwärts laufen lassen können", dann können wir eine Hypothese finden, so dass der Beweis angenommen werden kann.
Norvig I 795
Inverse Entailment: Die Idee ist, die Zwangsbedingung (entailment constraint) zu ändern

Hintergrund ∧ Hypothese ∧ Beschreibungen |= Klassifikationen

zur logisch äquivalenten Form

Hintergrund ∧ Beschreibungen ∧ ¬Klassifikationen |= ¬Hypothese.

Norvig I 796
Ein inverses Auflösungsverfahren, das eine vollständige Auflösungsstrategie invertiert, ist im Prinzip ein vollständiger Algorithmus zum Lernen von Theorien erster Ordnung. Das heißt, wenn eine unbekannte Hypothese eine Reihe von Beispielen erzeugt, dann kann ein inverses Auflösungsverfahren aus den Beispielen eine Hypothese erzeugen. Diese Beobachtung legt eine interessante Möglichkeit nahe: Nehmen wir an, dass die verfügbaren Beispiele eine Vielzahl von Flugbahnen fallender Körper enthalten. Wäre ein inverses Auflösungsprogramm theoretisch in der Lage, auf das Gravitationsgesetz zu schließen? Die Antwort ist eindeutig ja, denn das Gravitationsgesetz erlaubt es, die Beispiele zu erklären, wenn ein geeigneter mathematischer Hintergrund gegeben ist.
Norvig I 798
Literatur: Der Ansatz der aktuell besten Hypothese (engl. current best hypothesis) ist eine alte Idee der Philosophie (Mill, 1843)(1). Frühe Arbeiten in der kognitiven Psychologie legten auch nahe, dass es sich um eine natürliche Form des Begriffelernens beim Menschen handelt (Bruner et al., 1957)(2). In der KI-Forschung ist der Ansatz am engsten mit der Arbeit von Patrick Winston verbunden, dessen Doktorarbeit (Winston, 1970)(3) das Problem des Lernens von Beschreibungen komplexer Objekte behandelte.
Versionsraum (engl. version space): Die Versionsraummethode (Mitchell, 1977(4), 1982(5)) verfolgt einen anderen Ansatz, indem sie die Menge aller konsistenten Hypothesen beibehält und diese, die sich als inkonsistent mit neuen Beispielen erwiesen haben, eliminiert. Der Ansatz wurde im Meta-DENDRAL
Norvig I 799
Expertensystem für Chemie (Buchanan und Mitchell, 1978)(6) verwendet und später in Mitchells (1983)(7) LEX-System, das lernt, Kalkül-Probleme zu lösen. Ein dritter einflussreicher Faden wurde durch die Arbeit von Michalski und Kollegen an der AQ-Reihe von Algorithmen gebildet, die Sets logischer Regeln lernte (Michalski, 1969(8); Michalski et al., 1986(9)).
EBL (erklärungsbasiertes Lernen): EBL hatte seine Wurzeln in den vom STRIPS-Planer verwendeten Techniken (Fikes et al., 1972)(10). Wurde ein Plan konstruiert, so wurde auch eine verallgemeinerte Version davon in einer Planbibliothek gespeichert und bei der späteren Planung als Makro-Operator verwendet. Ähnliche Ideen tauchten in der ACT*-Architektur von Anderson unter der Überschrift der Wissenszusammenstellung (Anderson, 1983)(11) und in der SOAR-Architektur als Chunking (Laird et al., 1986)(12) auf. Der Erwerb von Schemata (DeJong, 1981)(13), die analytische Verallgemeinerung (Mitchell, 1982)(5) und die constraint-basierte Verallgemeinerung (Minton, 1984)(14) waren unmittelbare Vorläufer des rasch wachsenden Interesses an EBL, angeregt durch die Arbeiten von Mitchell et al. (1986)(15) und DeJong und Mooney (1986)(16). Hirsh (1987)(17) führte den im Text beschriebenen EBL-Algorithmus ein und zeigte, wie er direkt in ein logisches Programmiersystem integriert werden konnte. Van Harmelen und Bundy (1988)(18) erklären EBL als eine Variante der in Programmanalysesystemen verwendeten Teilauswertungsmethode (Jones et al., 1993)(19).
VsEBL (VsErklärungsbasiertes Lernen): Die anfängliche Begeisterung für EBL wurde durch Mintons Feststellung (1988)(20) gemildert, dass EBL ein Programm erheblich verlangsamen könnte ohne umfangreiche zusätzliche Arbeit. Formale probabilistische Analysen des erwarteten Gewinns durch EBL finden sich in Greiner (1989)(21) und Subramanian und Feldman (1990)(22). Ein hervorragender Überblick über die frühen Arbeiten zum EBL findet sich in Dietterich (1990)(23).
Relevanz: Relevanzinformationen in Form von funktionalen Abhängigkeiten wurden zuerst in der Datenbankgemeinde entwickelt, wo sie zur Strukturierung großer Mengen von Attributen in überschaubare Teilmengen verwendet werden. Funktionale Abhängigkeiten wurden von Carbonell und Collins (1973)(24) zur analogen Argumentation verwendet und von Davies und Russell, 1987(26)) wiederentdeckt und einer vollständigen logischen Analyse unterzogen.
Vorwissen: Ihre Rolle als Vorwissen beim induktiven Lernen wurde von Russell und Grosof (1987)(27) untersucht. Die Äquivalenz von Bestimmungen zu einem Hypothesenraum mit eingeschränktem Vokabular wurde von Russell (1988)(28) nachgewiesen.
Lernen: Lernalgorithmen für Bestimmungen und die mit RBDTL erzielte verbesserte Leistung wurden erstmals dank Almuallim und Dietterich (1991)(29) im FOCUS-Algorithmus gezeigt. Tadepalli (1993)(30) beschreibt einen sehr ausgefeilten Algorithmus für das Lernen mit Bestimmungen, der große Verbesserungen in der Gewinngeschwindigkeit gezeigt hat.
Inverse Deduktion: Die Idee, dass induktives Lernen durch umgekehrte Deduktion durchgeführt werden kann, lässt sich auf W. S. Jevons (1874)(31) zurückführen (...).
Computergestützte Untersuchungen begannen mit der bemerkenswerten Doktorarbeit von
Norvig I 800
Gordon Plotkin (1971)(32) in Edinburgh. Obwohl Plotkin viele der Theoreme und Methoden entwickelte, die heute in der ILP verwendet werden, wurde er durch einige unentscheidbare Ergebnisse für bestimmte Unterprobleme bei der Induktion entmutigt. MIS (Shapiro, 1981)(33) führte das Problem des Lernens von Logikprogrammen wieder ein, dies wurde aber hauptsächlich als ein Beitrag zur Theorie der automatisierten Fehlerbehebung (engl. debugging) angesehen.
Induktion/Regeln: Arbeiten zur Regelinduktion, wie die Systeme ID3 (Quinlan, 1986)(34) und CN2 (Clark und Niblett, 1989)(35), führten zu FOIL (Quinlan, 1990)(36), das zum ersten Mal die praktische Induktion von relationalen Regeln ermöglichte.
Relationales Lernen: Das Gebiet des relationalen Lernens wurde von Muggleton und Buntine (1988)(37) neu belebt, deren CIGOL-Programm eine leicht unvollständige Version der inversen Auflösung enthielt und in der Lage war, neue Prädikate zu erzeugen. Die Methode der inversen Auflösung erscheint auch in (Russell, 1986)(38), wobei ein einfacher Algorithmus in einer Fußnote angegeben wird. Das nächste große System war GOLEM (Muggleton und Feng, 1990)(39), das einen Abdeckalgorithmus verwendet, der auf Plotkins Begriff der relativ geringsten Verallgemeinerung basiert. ITOU (Rouveirol und Puget, 1989)(40) und CLINT (De Raedt, 1992)(41) waren weitere Systeme aus dieser Zeit.
Natürliche Sprache: In jüngerer Zeit hat PROGOL (Muggleton, 1995)(42) einen hybriden (Top-Down- und Bottom-Up) Ansatz für das inverse Entailment verfolgt und wurde auf eine Reihe praktischer Probleme angewandt, insbesondere in der Biologie und der Verarbeitung natürlicher Sprache.
Ungewissheit: Muggleton (2000)(43) beschreibt eine Erweiterung von PROGOL zur Behandlung von Unsicherheit in Form von stochastischen Logikprogrammen.
Induktive Logik-Programmierung/ILP: Eine formale Analyse der ILP-Methoden erscheint in Muggleton (1991)(44), eine große Sammlung von Artikeln in Muggleton (1992)(45) und eine Sammlung von Techniken und Anwendungen im Buch von Lavrauc und Duzeroski (1994)(46). Page und Srinivasan (2002)(47) geben einen neueren Überblick über die Geschichte des Fachgebiets und die Herausforderungen für die Zukunft. Frühe Komplexitätsergebnisse von Haussler (1989) legen nahe, dass das Lernen von Sätzen erster Ordnung schwer lösbar ist. Mit einem besseren Verständnis der Bedeutung syntaktischer Einschränkungen bei Sätzen (hier engl. clauses) wurden jedoch selbst bei Sätzen mit Rekursion positive Ergebnisse erzielt (Duzeroski et al., 1992)(48). Ergebnisse zur Lernfähigkeit der ILP werden von Kietz und Duzeroski (1994)(49) und Cohen und Page (1995)(50) untersucht.
Entdeckungssysteme/VsILP: Obwohl ILP jetzt der vorherrschende Ansatz für konstruktive Induktion zu sein scheint, war es nicht der einzige Ansatz, der verfolgt wurde. Sogenannte Entdeckungssysteme zielen darauf ab, den Prozess der wissenschaftlichen Entdeckung neuer Begriffe zu modellieren, in der Regel durch eine direkte Suche im Raum der Begriffsdefinitionen. Doug Lenats Automatisierter Mathematiker, oder AM (Davis und Lenat, 1982)(51), verwendete Entdeckungs-Heuristiken, die als Expertensystemregeln ausgedrückt wurden, um seine Suche nach Begriffen und Vermutungen in der elementaren Zahlentheorie zu leiten. Im Gegensatz zu den meisten Systemen, die für mathematisches Denken konzipiert waren, fehlte AM ein Begriff des Beweises und konnte nur Vermutungen anstellen. Es entdeckte Goldbachs Vermutung und den einzigartigen Satz der Primfaktorzerlegung wieder.
Die Architektur von AM wurde im EURISKO-System verallgemeinert (Lenat, 1983)(52), indem ein Mechanismus hinzugefügt wurde, der in der Lage ist, die eigenen Entdeckungs-Heuristiken des Systems neu zu schreiben. EURISKO wurde in einer Reihe von anderen Bereichen als der mathematischen Entdeckung angewandt, wenn auch mit weniger Erfolg als in AM. Die Methodik von AM und EURISKO ist umstritten (Ritchie und Hanna, 1984(53); Lenat und Brown, 1984(54)).

1. Mill, J. S. (1843). A System of Logic, Ratiocinative and Inductive: Being a Connected View of the Principles of Evidence, and Methods of Scientific Investigation. J.W. Parker, London.
2. Bruner, J. S., Goodnow, J. J., and Austin, G. A. (1957). A Study of Thinking. Wiley.
3. Winston, P. H. (1970). Learning structural descriptions from examples. Technical report MAC-TR-76,
Department of Electrical Engineering and Computer Science, Massachusetts Institute of Technology.
4. Mitchell, T.M. (1977). Version spaces: A candidate elimination approach to rule learning. In IJCAI-77,
pp. 305–310.
5. Mitchell, T. M. (1982). Generalization as search. AIJ, 18(2), 203–226.
6. Buchanan, B. G.,Mitchell, T.M., Smith, R. G., and Johnson, C. R. (1978). Models of learning systems.
In Encyclopedia of Computer Science and Technology, Vol. 11. Dekker.
7. Mitchell, T. M., Utgoff, P. E., and Banerji, R. (1983). Learning by experimentation: Acquiring and refining problem-solving heuristics. In Michalski, R. S., Carbonell, J. G., and Mitchell, T. M. (Eds.),
Machine Learning: An Artificial Intelligence Approach, pp. 163–190. Morgan Kaufmann.
8. Michalski, R. S. (1969). On the quasi-minimal solution of the general covering problem. In Proc.
First International Symposium on Information Processing, pp. 125–128.
9. Michalski, R. S.,Mozetic, I., Hong, J., and Lavrauc, N. (1986). The multi-purpose incremental learning
system AQ15 and its testing application to three medical domains. In AAAI-86, pp. 1041–1045.
10. Fikes, R. E., Hart, P. E., and Nilsson, N. J. (1972). Learning and executing generalized robot plans. AIJ, 3(4), 251–288.
11. Anderson, J. R. (1983). The Architecture of Cognition. Harvard University Press.
12. Laird, J., Rosenbloom, P. S., and Newell, A. (1986). Chunking in Soar: The anatomy of a general learning mechanism. Machine Learning, 1, 11–46.
13. DeJong, G. (1981). Generalizations based on explanations. In IJCAI-81, pp. 67–69.
14. Minton, S. (1984). Constraint-based generalization: Learning game-playing plans from single examples. In AAAI-84, pp. 251–254.
15. Mitchell, T. M., Keller, R., and Kedar-Cabelli, S. (1986). Explanation-based generalization: A unifying view. Machine Learning, 1, 47–80.
16. DeJong, G. and Mooney, R. (1986). Explanation-based learning: An alternative view. Machine Learning, 1, 145–176.
17. Hirsh, H. (1987). Explanation-based generalization in a logic programming environment. In IJCAI-87.
18. van Harmelen, F. and Bundy, A. (1988). Explanation-based generalisation = partial evaluation.
AIJ, 36(3), 401–412.
19. Jones, N. D., Gomard, C. K., and Sestoft, P. (1993). Partial Evaluation and Automatic Program Generation. Prentice-Hall.
20. Minton, S. (1988). Quantitative results concerning the utility of explanation-based learning. In AAAI-88, pp. 564–569.
21. Greiner, R. (1989). Towards a formal analysis of EBL. In ICML-89, pp. 450–453.
22. Subramanian, D. and Feldman, R. (1990). The utility of EBL in recursive domain theories. In AAAI-90, Vol. 2, pp. 942–949.
23. Dietterich, T. (1990). Machine learning. Annual Review of Computer Science, 4, 255–306.
24. Carbonell, J. R. and Collins, A. M. (1973). Natural semantics in artificial intelligence. In IJCAI-73, pp.
344–351.
25. Davies, T. R. (1985). Analogy. Informal note INCSLI- 85-4, Center for the Study of Language and
Information (CSLI).
26. Davies, T. R. and Russell, S. J. (1987). A logical approach to reasoning by analogy. In IJCAI-87, Vol. 1,
pp. 264–270.
27. Russell, S. J. and Grosof, B. (1987). A declarative approach to bias in concept learning. In AAAI-87.
28. Russell, S. J. (1988). Tree-structured bias. In AAAI-88, Vol. 2, pp. 641–645.
29. Almuallim, H. and Dietterich, T. (1991). Learning with many irrelevant features. In AAAI-91, Vol. 2,
pp. 547–552.
30. Tadepalli, P. (1993). Learning from queries and examples with tree-structured bias. In ICML-93, pp.
322–329.
31. Jevons, W. S. (1874). The Principles of Science. Routledge/Thoemmes Press, London.
32. Plotkin, G. (1971). Automatic Methods of Inductive Inference. Ph.D. thesis, Edinburgh University.
33. Shapiro, E. (1981). An algorithm that infers theories from facts. In IJCAI-81, p. 1064.
34. Quinlan, J. R. (1986). Induction of decision trees. Machine Learning, 1, 81–106.
35. Clark, P. and Niblett, T. (1989). The CN2 induction algorithm. Machine Learning, 3, 261–283.
36. Quinlan, J. R. (1990). Learning logical definitions from relations. Machine Learning, 5(3), 239–266.
37. Muggleton, S. H. and Buntine, W. (1988). Machine invention of first-order predicates by inverting resolution. In ICML-88, pp. 339–352.
38. Russell, S. J. (1986). A quantitative analysis of analogy by similarity. In AAAI-86, pp. 284–288.
39. Muggleton, S. H. and Feng, C. (1990). Efficient induction of logic programs. In Proc. Workshop on
Algorithmic Learning Theory, pp. 368–381.
40. Rouveirol, C. and Puget, J.-F. (1989). A simple and general solution for inverting resolution. In Proc.
European Working Session on Learning, pp. 201–210.
41. De Raedt, L. (1992). Interactive Theory Revision: An Inductive Logic Programming Approach. Academic Press.
42. Muggleton, S. H. (1995). Inverse entailment and Progol. New Generation Computing, 13(3-4), 245-
286.
43. Muggleton, S. H. (2000). Learning stochastic logic programs. Proc. AAAI 2000 Workshop on Learning
Statistical Models from Relational Data.
44. Muggleton, S. H. (1991). Inductive logic programming. New Generation Computing, 8, 295–318.
45. Muggleton, S. H. (1992). Inductive Logic Programming. Academic Press.
46. Lavrauc, N. and Duzeroski, S. (1994). Inductive Logic Programming: Techniques and Applications.
Ellis Horwood
47. Page, C. D. and Srinivasan, A. (2002). ILP: A short look back and a longer look forward. Submitted to
Journal of Machine Learning Research.
48. Duzeroski, S., Muggleton, S. H., and Russell, S. J. (1992). PAC-learnability of determinate logic programs. In COLT-92, pp. 128–135.
49. Kietz, J.-U. and Duzeroski, S. (1994). Inductive logic programming and learnability. SIGART Bulletin,
5(1), 22–32.
50. Cohen, W. W. and Page, C. D. (1995). Learnability in inductive logic programming: Methods and results. New Generation Computing, 13(3–4), 369-409.
51. Davis, R. and Lenat, D. B. (1982). Knowledge-Based Systems in Artificial Intelligence. McGraw-
Hill.
52. Lenat, D. B. (1983). EURISKO: A program that learns new heuristics and domain concepts: The nature of heuristics, III: Program design and results. AIJ, 21(1–2), 61–98.
53. Ritchie, G. D. and Hanna, F. K. (1984). AM: A case study in AI methodology. AIJ, 23(3), 249–268.
54. Lenat, D. B. and Brown, J. S. (1984). Why AM and EURISKO appear to work. AIJ, 23(3), 269–294.


_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der Argumente
Der Hinweis [Begriff/Autor], [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] bzw. "Problem:"/"Lösung", "alt:"/"neu:" und "These:" ist eine Hinzufügung des Lexikons der Argumente.

Norvig I
Peter Norvig
Stuart J. Russell
Artificial Intelligence: A Modern Approach Upper Saddle River, NJ 2010

Send Link

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Y   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z