Psychologie Lexikon der Argumente

Home Screenshot Tabelle Begriffe

 
Lernen: das Erwerben der Fähigkeit, Beziehungen zwischen Zeichen, Symptomen oder Symbolen und Gegenständen herzustellen. Dazu gehört auch z.B. das Wiedererkennen und Erinnern von Mustern, Ähnlichkeiten, Sinneswahrnehmungen, Selbstwahrnehmung usw. Beim Lernen wird im Idealfall die Fähigkeit erworben, Verallgemeinerungen auf zukünftige Fälle anzuwenden. Siehe auch Wissen, Wissen-wie, Kompetenz.

_____________
Anmerkung: Die obigen Begriffscharakterisierungen verstehen sich weder als Definitionen noch als erschöpfende Problemdarstellungen. Sie sollen lediglich den Zugang zu den unten angefügten Quellen erleichtern. - Lexikon der Argumente.

 
Autor Begriff Zusammenfassung/Zitate Quellen

KI-Forschung über Lernen - Lexikon der Argumente

Norvig I 693
Lernen/KI-Forschung/Norvig/Russell: Jede Komponente eines Agenten kann durch das Lernen anhand von Daten verbessert werden. Die Verbesserungen und die Techniken, mit denen sie vorgenommen werden, hängen von vier Hauptfaktoren ab:
- Welche Komponente verbessert werden soll.
Norvig I 694
- Welche Vorkenntnisse der Agent bereits hat,
- Welche Darstellung für die Daten und die Komponente verwendet wird.
- Welches Feedback ist verfügbar, um daraus zu lernen.
Komponenten, die erlernt werden müssen:
1. Ein direktes Mapping von Bedingungen des aktuellen Zustands zu Handlungen.
2. Ein Mittel, um aus der Wahrnehmungssequenz relevante Eigenschaften der Welt abzuleiten.
3. Informationen über die Art und Weise, wie sich die Welt entwickelt, und über die Ergebnisse möglicher Handlungen, die der Agent durchführen kann.
4. Informationen über den Nutzen, die auf die Attraktivität von Zuständen der Welt hinweisen.
5. Informationen über den Handlungswert, die die Attraktivität von Handlungen angeben.
6. Ziele, die Klassen von Zuständen beschreiben, deren Erreichen den Nutzen des Agenten maximiert.
>Repräsentation/Norvig
, >Wissen/Norvig, >Überwachtes Lernen/KI-Forschung, >Umgebung/KI-Forschung, >Künstliche Neuronale Netze, >Lerntheorie/Norvig.
Norvig I 744
Support Vector Machine/SVM: Das Support Vector Machine bzw. SVM Framework ist derzeit der beliebteste Ansatz für kontrolliertes Lernen "von der Stange": Wenn Sie kein spezielles Vorwissen über einen Bereich haben, dann ist die SVM eine ausgezeichnete Methode für ein erstes Austesten.
Eigenschaften von SVMs:
1. SVMs konstruieren einen maximum margin separator - eine Grenze für Entscheidungen mit dem größtmöglichen Abstand zu den Beispielpunkten. Dies hilft ihnen dabei, gut zu verallgemeinern.
2. SVMs erzeugen eine linear separating hyperplane, aber sie haben die Fähigkeit, die Daten mithilfe des sogenannten Kernel-Tricks in einen höherdimensionalen Raum einzubetten.
3. SVMs sind eine nichtparametrische Methode - sie behalten Trainingsbeispiele bei und müssen sie potenziell alle speichern. Jedoch behalten sie in der Praxis oft nur einen kleinen Bruchteil der Anzahl der Beispiele bei - mitunter nur ein kleine Konstante mulipliziert mit der Anzahl der Dimensionen. >Künstliche Neuronale Netze/Norvig.
Norvig I 748
Ensemble Learning: Die Idee der Methoden des ensemble learning besteht darin, eine Sammlung bzw. ein Ensemble von Hypothesen aus dem Hypothesenraum auszuwählen und ihre Vorhersagen zu kombinieren. Während der Kreuzvalidierung könnten wir beispielsweise zwanzig verschiedene Entscheidungsbäume generieren und sie über die beste Klassifizierung für ein neues Beispiel abstimmen lassen. Die Motivation für ensemble learning ist denkbar einfach. Betrachten wir ein Ensemble von K = 5 Hypothesen und nehmen wir an, dass wir ihre Vorhersagen mithilfe einfacher Mehrheitsabstimmung kombinieren. Damit das Ensemble ein neues Beispiel falsch klassifiziert, müssen mindestens drei der fünf Hypothesen es falsch klassifizieren. Die Hoffnung ist, dass dies viel unwahrscheinlicher ist als eine Fehlklassifizierung durch eine einzige Hypothese.
Unabhängigkeit der Hypothesen: (...) Offensichtlich ist die Annahme der Unabhängigkeit unbegründet, da Hypothesen sehr wahrscheinlich auf die gleiche Weise durch eventuelle irreführenden Aspekte der Trainingsdaten in die Irre geführt werden können. Wenn die Hypothesen aber zumindest ein wenig voneinander abweichen und dadurch die Korrelation zwischen ihren Fehlern reduziert wird, kann ensemble learning sehr nützlich sein.
Hypothesenraum: Eine andere Art, über die Idee eines Ensembles nachzudenken, ist als eine generische Möglichkeit, um den Hypothesenraum zu erweitern. Das heißt, denken Sie an das Ensemble selbst als eine Hypothese und an den neuen Hypothesenraum
Norvig I 749
als Menge aller möglichen Ensembles, die aus Hypothesen im ursprünglichen Raum konstruierbar sind. Wenn der ursprüngliche Hypothesenraum einen einfachen und effizienten Lernalgorithmus ermöglicht, dann bietet die Ensemblemethode eine Möglichkeit, eine viel aussagekräftigere Klasse von Hypothesen zu erlernen, ohne dabei viel zusätzliche rechnerische oder algorithmische Komplexität zu verursachen.
Boosting: Die am häufigsten verwendete Ensemblemethode wird als Boosting bezeichnet. [Sie verwendet] die Idee eines gewichteten Trainingssatzes. In einem solchen Trainingssatz hat jedes Beispiel ein Gewicht wj ≥ 0. Je höher das Gewicht eines Beispiels ist, desto höher ist die Bedeutung, die ihm beim Lernen einer Hypothese beigemessen wird. Boosting beginnt mit wj = 1 für alle Beispiele (d.h. ein normaler Trainingssatz). Aus dieser Menge wird die erste Hypothese h1 generiert. Diese Hypothese wird einige der Trainingsbeispiele richtig und einige falsch klassifizieren. Wir würden uns wünschen, dass die nachfolgende Hypothese bei den falsch klassifizierten Beispielen besser abschneidet, weshalb wir ihre Gewichte erhöhen und gleichzeitig die Gewichte der richtig klassifizierten Beispiele verringern. Aus diesem neuen gewichteten Trainingssatz generieren wir die Hypothese h2. Der Prozess wird auf diese Weise fortgesetzt, bis wir K Hypothesen generiert haben, wobei K ein Input für den Boosting-Algorithmus ist. Die finale Ensemble-Hypothese ist eine gewichtete Kombination aller K-Hypothesen, wobei jede Hypothese danach gewichtet wird, wie gut sie beim Trainingssatz abgeschnitten hat.
Norvig I 757
Die Performance eines Lernalgorithmus wird durch die Lernkurve gemessen, die die Vorhersagegenauigkeit beim Testsatz als Funktion der Größe des Trainingssatzes zeigt.
Wenn mehrere Modelle zur Auswahl stehen, kann die Kreuzvalidierung verwendet werden, um ein Modell auszuwählen, das sich gut generalisieren lässt.
Norvig I 847
Das Erlernen eines Modells für eine beobachtbare Umgebung ist ein Problem des überwachten Lernens, da die nachfolgende Wahrnehmung den Outcome-Zustand angibt. >Verstärkendes Lernen/KI-Forschung.

_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der Argumente
Der Hinweis [Begriff/Autor], [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] bzw. "Problem:"/"Lösung", "alt:"/"neu:" und "These:" ist eine Hinzufügung des Lexikons der Argumente.
KI-Forschung

Norvig I
Peter Norvig
Stuart J. Russell
Artificial Intelligence: A Modern Approach Upper Saddle River, NJ 2010

Send Link
> Gegenargumente gegen KI-Forschung
> Gegenargumente zu Lernen

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z