Philosophie Lexikon der Argumente

Home Screenshot Tabelle Begriffe

Autor Begriff Zusammenfassung/Zitate Quellen

KI-Forschung über Überwachtes Lernen - Lexikon der Argumente

Norvig I 694
Unüberwachtes Lernen/KI-Forschung/Norvig/Russell: Beim unüberwachten Lernen lernt der Agent Muster im Input, obwohl kein explizites Feedback gegeben wird. Die häufigste Aufgabe des unüberwachten Lernens ist das Clustering: das Erkennen
Norvig I 695
potenziell nützliche Cluster in Input-Beispielen.
Def überwachtes Lernen: Beim überwachten Lernen beobachtet der Agent einige beispielhafte Input-Output-Paare und erlernt eine Funktion, die vom Input auf den Output abbildet.
Beim teilüberwachten Lernen werden uns einige wenige gelabelte (mit einer Bezeichnung versehene) Beispiele gegeben, und wir müssen aus einer großen Sammlung nicht gelabelter Beispiele das Beste machen. Sogar die Label selbst sind vielleicht nicht die orakelhaften Wahrheiten, die wir uns erhoffen. Stellen Sie sich vor, Sie versuchen, ein System aufzubauen, mit dem Sie das Alter einer Person anhand eines Fotos bestimmen können. Sie sammeln einige gelabelte Beispiele, indem Sie Bilder von Menschen aufnehmen und nach ihrem Alter fragen. Das ist überwachtes Lernen. Aber in Wirklichkeit haben einige der Leute über ihr Alter gelogen. Nicht nur, dass die Daten zufällig verrauscht sind; vielmehr sind die Ungenauigkeiten systematisch, und ihre Aufdeckung stellt ein unüberwachtes Lernproblem dar, das Bilder, selbstberichtete Altersangaben und wahres (unbekanntes) Alter beinhaltet. Sowohl das Rauschen als auch das Fehlen von Labels schaffen also ein Kontinuum zwischen überwachtem und unüberwachtem Lernen.
Dies ist die Aufgabe des überwachten Lernens:
Entdecken Sie bei einem Trainingsset von N beispielhaften Input-Output-Paaren (x1, y1), (x2, y2), ... (xN, yN), wobei jedes yj durch eine unbekannte Funktion y = f(x) erzeugt wurde, eine Funktion h, die der wahren Funktion f nahe kommt.
Norvig I 696
Klassifikation: Wenn der Output y zu einer endlichen Menge von Werten gehört (wie z.B. sonnig, bewölkt oder regnerisch), wird das Lernproblem als Klassifikation und bei nur zwei Werten als Boolesche oder binäre Klassifikation bezeichnet .
Regression: Wenn y eine Zahl ist (z.B. die morgige Temperatur), wird das Lernproblem als Regression bezeichnet.
Hypothesen: Im Allgemeinen gibt es einen Tradeoff zwischen komplexen Hypothesen, die gut zu den Trainingsdaten passen, und einfacheren Hypothesen, die sich möglicherweise besser verallgemeinern lassen. >Repräsentation/Norvig, >Wissen/KI-Forschung, >Lernen/KI-Forschung.
Norvig I 697
Realisierung: Wir sagen, dass ein Lernproblem realisierbar ist, wenn der Hypothesenraum die wahre Funktion enthält. Leider können wir nicht immer sagen, ob ein gegebenes Lernproblem realisierbar ist, weil die wahre Funktion nicht bekannt ist.
Es gibt einen Tradeoff zwischen der Ausdruckskraft eines Hypothesenraums und der Komplexität, eine gute Hypothese innerhalb dieses Raums zu finden.
Norvig I 759
Geschichte: Die Kreuzvalidierung wurde erstmals von Larson (1931)(1) eingeführt und von Stone (1974)(2) und Golub et al. (1979)(3) in einer Form vorgestellt, die dem nahe kommt, was wir hier zeigen. Das Verfahren der Regularisierung geht auf Tichonow (1963)(4) zurück. Guyon und Elisseeff (2003)(5) präsentieren eine Journal-Ausgabe, die sich dem Problem der Featureauswahl widmet. Banko und Brill (2001)(6) und Halevy et al. (2009)(7) diskutieren die Vorteile der Verwendung großer Datenmengen. Es war Robert Mercer, ein Sprachforscher, der 1985 sagte: “There is no data like more data.”
(Lyman und Varian, 2003)(8) schätzen, dass im Jahr 2002 etwa 5 Exabyte (5 × 1018 Bytes) Daten produziert wurden und dass sich die Produktionsrate alle 3 Jahre verdoppelt. Die theoretische Analyse von Lernalgorithmen begann mit der Arbeit von Gold (1967)(9) über identification in the limit. Dieser Ansatz wurde zum Teil durch Modelle der wissenschaftlichen Entdeckung aus der Wissenschaftsphilosophie angeregt (Popper, 1962)(10), wurde aber hauptsächlich auf das Problem des Erlernens von Grammatiken aus Beispielsätzen angewandt (Osherson et al., 1986)(11).

1. Larson, S. C. (1931). The shrinkage of the coefficient of multiple correlation. J. Educational Psychology, 22, 45–-55.
2. Stone, M. (1974). Cross-validatory choice and assessment of statostical predictions. J. Royal Statistical Society, 36 (111-133).
3. Golub, G., Heath, M., and Wahba, G. (1979). Generalized cross-validation as a method for choosing a good ridge parameter. Technometrics, 21 (2).
4. Tikhonov, A. N. (1963). Solution of incorrectly formulated problems and the regularization method.
Soviet Math. Dokl., 5, 1035-1038.
5. Guyon, I. and Elisseeff, A. (2003). An introduction to variable and feature selection. JMLR, pp. 1157-
1182.
6. Banko, M. and Brill, E. (2001). Scaling to very very large corpora for natural language disambiguation. In ACL-01, pp. 26-33.
7. Halevy, A., Norvig, P., and Pereira, F. (2009). The unreasonable effectiveness of data. IEEE Intelligent
Systems, March/April, 8-12.
8. Lyman, P. and Varian, H. R. (2003). How much information? www.sims.berkeley. edu/how-much-info-2003.
9. Gold, E. M. (1967). Language identification in the limit. Information and Control, 10, 447-474.
10. Popper, K. R. (1962). Conjectures and Refutations: The Growth of Scientific Knowledge. Basic Books.
11. Osherson, D. N., Stob, M., and Weinstein, S. (1986). Systems That Learn: An Introduction to
Learning Theory for Cognitive and Computer Scientists. MIT Press.


_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der Argumente
Der Hinweis [Begriff/Autor], [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] bzw. "Problem:"/"Lösung", "alt:"/"neu:" und "These:" ist eine Hinzufügung des Lexikons der Argumente.
KI-Forschung

Norvig I
Peter Norvig
Stuart J. Russell
Artificial Intelligence: A Modern Approach Upper Saddle River, NJ 2010

Send Link

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Y   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z