Philosophie Lexikon der Argumente

Home Screenshot Tabelle Begriffe

Autor Begriff Zusammenfassung/Zitate Quellen

KI-Forschung über Question Answering - Lexikon der Argumente

Norvig I 872
Question Answering/KI-Forschung/Norvig/Russell: Informationsextraktion ist die Aufgabe, Dokumente zu finden, die für eine Anfrage relevant sind, wobei die Anfrage eine Frage oder nur ein Themenbereich oder Begriff sein kann. Die Beantwortung von Fragen ist eine etwas andere Aufgabe, bei der es sich bei der Anfrage tatsächlich um eine Frage handelt. Die Antwort ist hierbei keine Rangliste von Dokumenten, sondern eine kurze Antwort - ein Satz oder sogar nur eine Phrase.
Vgl. >Informationsextraktion
.
Seit den 1960er Jahren gibt es Question Answering NLP-Systeme (Natural Language Processing), aber erst seit 2001 nutzen solche Systeme die Informationsextraktion im Web, um ihren Erfassungsbereich radikal zu erweitern. Das ASKMSR-System (Banko et al., 2002)(1) ist ein typisches webbasiertes Question-Answering-System. Es basiert auf der Intuition, dass die meisten Fragen im Web viele Male beantwortet werden, so dass die Beantwortung von Fragen als ein Problem der Genauigkeit und nicht des Abrufs betrachtet werden sollte. Wir müssen uns nicht mit all den verschiedenen Arten befassen, wie eine Antwort formuliert sein könnte - wir müssen nur eine davon finden.
Z.B.: [Wer tötete Abraham Lincoln?] - Web-Eintrag: "John Wilkes Booth hat die Geschichte mit einer Kugel verändert. Er wird für immer als der Mann bekannt sein, der Abraham Lincolns Leben beendet hat."
Problem: Um diese Passage zur Beantwortung der Frage zu verwenden, müsste das System wissen, dass das Beenden eines Lebens synonym für Töten stehen kann, dass "Er" sich auf Booth bezieht und einige andere linguistische und semantische Fakten.
Norvig I 873
ASKMSR versucht nicht, diese Art von Verfeinerung zu erreichen - es weiß nichts über Pronomen, töten oder andere Verben. Es kennt jedoch 15 verschiedene Arten von Fragen und weiß, wie sie als Anfragen an eine Suchmaschine umgeschrieben werden können. ASKMSR weiß, dass [Wer tötete Abraham Lincoln] als die Abfrage [* tötete Abraham Lincoln] und als [Abraham Lincoln wurde von * getötet] umgeschrieben werden kann. Es gibt diese umgeschriebenen Anfragen heraus und untersucht die Ergebnisse, die zurückkommen - nicht die vollständigen Webseiten, sondern nur die kurzen Textzusammenfassungen, die in der Nähe der Suchbegriffe erscheinen. Die Ergebnisse werden in 1-, 2- und 3-Gramme (>Sprachmodelle/Norvig) unterteilt und nach Häufigkeit in den Ergebnismengen und nach Gewicht geordnet: Ein n-Gramm, das von einer sehr spezifischen Neuschreibung der Anfrage zurückkommt (z.B. die genaue Phrasenübereinstimmung ["Abraham Lincoln wurde von * getötet"]), würde mehr Gewicht erhalten als eines von einer allgemeinen Neuschreibung der Anfrage, wie z.B. [Abraham ODER Lincoln ODER getötet]. ASKMSR verlässt sich eher auf die Breite der Inhalte im Web als auf seine eigene Tiefe des Verständnisses. >Informationsextraktion.
Norvig I 885
Geschichte: Banko et al. (2002)(1) stellen das ASKMSR-Question-Answering-System vor; ein ähnliches System ist Kwok et al. (2001)(2) zu verdanken. Pasca und Harabagiu (2001)(3) diskutieren ein preisgekröntes Question-Answering-System. Zwei frühe einflussreiche Ansätze für automatisiertes Knowledge Engineering stammen von Riloff (1993)(4), der zeigte, dass ein automatisch konstruiertes Wörterbuch fast ebenso gut funktioniert wie ein sorgfältig handgefertigtes domänenspezifisches Wörterbuch. Yarowsky (1995)(5) zeigte, dass die Klassifikation von Wortsinn (engl. word sense) (...) durch unbeaufsichtigtes Training an einem Korpus von unbenanntem Text mit einer Genauigkeit erreicht werden kann, die so gut ist wie überwachte Methoden.
Die Idee, Vorlagen und Beispiele gleichzeitig aus einer Handvoll beschrifteter Beispiele zu extrahieren, wurde unabhängig und gleichzeitig von Blum und Mitchell (1998)(6), die es Co-Training nannten, und von Brin (1998)(7), welcher es DIPRE (Dual Iterative Pattern Relation Extraction) nannte, entwickelt. Man kann sehen, warum der Begriff Co-Training geblieben ist. Ähnliche frühe Arbeiten, unter dem Namen Bootstrapping, wurden von Jones et al. (1999)(8) durchgeführt. Die Methode wurde durch die Systeme QXTRACT (Agichtein und Gravano, 2003)(9) und KNOWITALL (Etzioni et al., 2005)(10) weiterentwickelt. Das maschinelle Lesen wurde von Mitchell (2005)(11) und Etzioni et al. (2006)(12) eingeführt und steht im Mittelpunkt des TEXTRUNNER-Projekts (Banko et al., 2007(13); Banko und Etzioni, 2008(14)). (Vgl. >Informationsextraktion).
(...) es ist auch möglich, die Informationsextraktion auf der Grundlage der physischen Struktur oder des Layouts des Textes und nicht auf der Grundlage der linguistischen Struktur durchzuführen. HTML-Listen und Tabellen sowohl in HTML- als auch in relationalen Datenbanken enthalten Daten, die extrahiert und konsolidiert werden können (Hurst, 2000(15); Pinto et al., 2003(16); Cafarella et al., 2008(17)). Die Association for Computational Linguistics (ACL) hält regelmäßig Konferenzen ab und gibt die Zeitschrift Computational Linguistics heraus. Außerdem gibt es eine Internationale Konferenz für Computerlinguistik (COLING). Das Lehrbuch von Manning und Schütze (1999)(18) behandelt die statistische Sprachverarbeitung, während Jurafsky und Martin (2008)(19) eine umfassende Einführung in die Sprachverarbeitung und die Verarbeitung natürlicher Sprache geben.

1. Banko, M., Brill, E., Dumais, S. T., and Lin, J. (2002). Askmsr: Question answering using the worldwide web. In Proc. AAAI Spring Symposium on Mining Answers from Texts and Knowledge Bases, pp. 7–9.
2. Kwok, C., Etzioni, O., andWeld, D. S. (2001). Scaling question answering to the web. In Proc. 10th
International Conference on the World Wide Web.
3. Pasca,M. and Harabagiu, S.M. (2001). High performance question/answering. In SIGIR-01, pp. 366–
374.
4. Riloff, E. (1993). Automatically constructing a dictionary for information extraction tasks. In AAAI-93,
pp. 811–816.
5. Yarowsky, D. (1995). Unsupervised word sense disambiguation rivaling supervised methods. In ACL-
95, pp. 189–196.
6. Blum, A. L. and Mitchell, T. M. (1998). Combining labeled and unlabeled data with co-training. In
COLT-98, pp. 92–100.
7. Brin, D. (1998). The Transparent Society. Perseus.
8. Jones, R., McCallum, A., Nigam, K., and Riloff, E. (1999). Bootstrapping for text learning tasks. In
Proc. IJCAI-99 Workshop on Text Mining: Foundations, Techniques, and Applications, pp. 52–63.
9. Agichtein, E. and Gravano, L. (2003). Querying text databases for efficient information extraction. In
Proc. IEEE Conference on Data Engineering.
10. Etzioni, O., Cafarella, M. J., Downey, D., Popescu, A.-M., Shaked, T., Soderland, S., Weld, D. S., and
Yates, A. (2005). Unsupervised named-entity extraction from the web: An experimental study. AIJ,
165(1), 91–134.
11. Mitchell, T. M. (2005). Reading the web: A breakthrough goal for AI. AIMag, 26(3), 12–16.
12. Etzioni, O., Banko, M., and Cafarella, M. J. (2006). Machine reading. In AAAI-06.
13. Banko, M., Cafarella, M. J., Soderland, S., Broadhead, M., and Etzioni, O. (2007). Open information extraction from the web. In IJCAI-07.
14. Banko, M. and Etzioni, O. (2008). The tradeoffs between open and traditional relation extraction. In ACL-08, pp. 28–36.
15. Hurst, M. (2000). The Interpretation of Text in Tables. Ph.D. thesis, Edinburgh.
16. Pinto, D.,McCallum, A.,Wei, X., and Croft,W. B. (2003). Table extraction using conditional random fields. In SIGIR-03.
17. Cafarella,M. J.,Halevy, A., Zhang, Y.,Wang, D. Z., and Wu, E. (2008). Webtables: Exploring the power of tables on the web. In VLDB-2008.
18. Manning, C. and Sch¨utze, H. (1999). Foundations of Statistical Natural Language Processing. MIT
Press.
19. Jurafsky, D. and Martin, J. H. (2008). Speech and Language Processing: An Introduction to Natural
Language Processing, Computational Linguistics, and Speech Recognition (2nd edition). Prentice-
Hall.

_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der Argumente
Der Hinweis [Begriff/Autor], [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] bzw. "Problem:"/"Lösung", "alt:"/"neu:" und "These:" ist eine Hinzufügung des Lexikons der Argumente.
KI-Forschung

Norvig I
Peter Norvig
Stuart J. Russell
Artificial Intelligence: A Modern Approach Upper Saddle River, NJ 2010

Send Link
> Gegenargumente gegen KI-Forschung
> Gegenargumente zu Question Answering ...

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Y   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z