Philosophie Lexikon der Argumente

Home Screenshot Tabelle Begriffe

 
Veränderung, Philosophie: Veränderungen bestehen im Wechsel von Eigenschaften eines Gegenstands in der Zeit. Siehe auch Prozess, Flux, Bewegung, Raumzeit, Vierdimensionalismus, Abbildung, Darstellung, Repräsentation, Identität, Temporale Identität, Identifikation, Bedeutungswandel.

_____________
Anmerkung: Die obigen Begriffscharakterisierungen verstehen sich weder als Definitionen noch als erschöpfende Problemdarstellungen. Sie sollen lediglich den Zugang zu den unten angefügten Quellen erleichtern. - Lexikon der Argumente.

 
Autor Begriff Zusammenfassung/Zitate Quellen

KI-Forschung über Veränderung - Lexikon der Argumente

Norvig I 566
Veränderung/Wahrscheinlichkeit/Zeit/Inferenz/KI-Forschung/Norvig/Russell: Agenten in teilweise beobachtbaren Umgebungen müssen in der Lage sein, den aktuellen Zustand zu verfolgen, soweit es ihre Sensoren zulassen. (...) ein Agent erhält einen belief state, der darstellt, welche Zustände der Welt derzeit möglich sind, aufrecht. >Belief states/Norvig
.
Basierend auf dem belief state and transition model kann der Agent vorhersagen, wie sich die Welt im nächsten Zeitschritt entwickeln könnte. Ausgehend von den beobachteten Wahrnehmungen und einem Sensormodell kann der Agent den belief state aktualisieren.
[Es gibt zwei Möglichkeiten, belief states darzustellen] (...)
a) durch explizit aufgezählte Sets von Zuständen (states),
b) durch logische Formeln. Diese Ansätze definierten belief states danach, welche world states möglich waren, konnten aber nichts darüber sagen, welche Zustände wahrscheinlich oder unwahrscheinlich waren.
Problem: Eine sich verändernde Welt wird durch Nutzung einer Variablen für jeden Aspekt des world state zu jedem Zeitpunkt modelliert. Die Übergangs- und Sensormodelle können unsicher sein: Das Übergangsmodell (transition model) beschreibt die Wahrscheinlichkeitsverteilung der Variablen zum Zeitpunkt t, angesichts des Zustands der Welt in der Vergangenheit, während das Sensormodell (sensor model) die Wahrscheinlichkeit jeder Empfindung zum Zeitpunkt t, angesichts des aktuellen Zustands der Welt, beschreibt.
Lösung: drei spezifische Arten von Modellen: Hidden-Markov-Modelle, Kalman-Filter und dynamische Bayessche Netzwerke (die Hidden-Markov-Modelle und Kalman-Filter als Sonderfälle beinhalten).
Norvig I 567
Um den aktuellen Zustand aus der Geschichte der Evidenz zu beurteilen und die Ergebnisse von Behandlungsmaßnahmen vorherzusagen, müssen wir diese Veränderungen modellieren.
Wir betrachten die Welt als eine Reihe von Schnappschüssen oder Zeitscheiben, von denen jede eine Reihe von zufälligen Variablen enthält, einige beobachtbar und andere nicht. ((s) Vgl. >Vierdimensionalismus/Philosophische Theorien).
Norvig I 568
(...) Der nächste Schritt besteht darin, festzulegen, wie sich die Welt entwickelt (das Übergangsmodell) und wie die Evidenzvariablen ihre Werte erhalten (das Sensormodell).
Norvig I 570
Ordnung: Die Erhöhung der Ordnung kann immer als eine Erhöhung des Sets von Zustandsvariablen formuliert werden, wobei die Ordnung fixiert bleibt. Beachten Sie, dass das Hinzufügen von Zustandsvariablen zwar die Vorhersagekraft des Systems verbessern, aber auch die Anforderungen an die Vorhersagen erhöhen könnte (...).
Norvig I 603
Problem: Datenassoziation: Beim Versuch, viele Objekte im Auge zu behalten, entsteht Unsicherheit darüber, welche Beobachtungen zu welchen Objekten gehören - das Problem der Datenassoziation. Die Anzahl der Assoziationshypothesen ist typischerweise unlösbar groß, aber MCMC- und partikelfilternde Algorithmen für die Datenassoziation funktionieren in der Praxis gut.
Norvig I 602
MCMC: Ein MCMC-Algorithmus untersucht den Raum der Zuordnungshistorie.
Norvig I 603
Veränderung: Der sich ändernde Zustand der Welt wird durch die Verwendung einer Reihe von Zufallsvariablen behandelt, die den Zustand zu jedem Zeitpunkt darstellen.
Repräsentationen: können so gestaltet werden, dass sie die Markov-Eigenschaft befriedigen, sodass die Zukunft, vor dem Hintergrund der Gegenwart, unabhängig von der Vergangenheit ist. Kombiniert mit der Annahme, dass der Prozess stationär ist, d.h. sich die Dynamik im Laufe der Zeit nicht ändert, vereinfacht dies die Darstellung erheblich.
Wahrscheinlichkeit: Ein temporäres Wahrscheinlichkeitsmodell kann so gesehen werden, dass es ein Übergangsmodell, welches die Zustandsentwicklung beschreibt, und ein Sensormodell, das den Beobachtungsprozess beschreibt, enthält. >Inferenz/KI-Forschung.
Historische Entwicklung: Viele der Grundideen für die Schätzung des Zustands dynamischer Systeme stammen vom Mathematiker C. F. Gauß (1809)(1), der einen deterministischen Algorithmus der kleinsten Quadrate (least-squares) für das Problem der Schätzung von Umlaufbahnen aus astronomischen Beobachtungen formulierte. A. A. Markov (1913)(2) entwickelte in seiner Analyse stochastischer Prozesse die spätere Markov-Annahme;
Norvig I 604
(…). Die allgemeine Theorie der Markov-Ketten (Markov chains) und ihrer mxing time wird von Levin et al. (2008)(3) behandelt. Bedeutende klassifizierte Forschungsarbeit zur Filterung wurden während des Zweiten Weltkriegs von Wiener (1942)(4) für kontinuierliche Zeitprozesse und von Kolmogorov (1941)(5) für diskrete Zeitprozesse durchgeführt. Obwohl diese Arbeiten in den nächsten 20 Jahren zu wichtigen technologischen Entwicklungen führten, machte die Verwendung einer Darstellung im Frequenzbereich viele Berechnungen recht umständlich. Die direkte Zustands-Raum-Modellierung des stochastischen Prozesses erwies sich als einfacher, wie Peter Swerling (1959)(6) und Rudolf Kalman (1960)(7) zeigen.
Das Hidden-Markov-Modell (HMM) und die zugehörigen Algorithmen für Inferenz und Lernen, einschließlich des Vorwärts-Rückwärts-Algorithmus, wurden von Baum und Petrie (1966)(8) entwickelt. Der Viterbi-Algorithmus erschien erstmals in (Viterbi, 1967)(9). Ähnliche Ideen tauchten auch unabhängig voneinander in der Kalman-Filter-Community auf (Rauch et al., 1965)(10). Der Vorwärts-Rückwärts-Algorithmus war einer der wichtigsten Vorläufer der allgemeinen Formulierung des EM-Algorithmus (Dempster et al., 1977)(11) (...).
Dynamische Bayessche Netzwerke (DBNs) können als eine spärliche Kodierung eines Markov-Prozesses angesehen werden und wurden in der KI erstmals von Dean und Kanazawa (1989b)(12), Nicholson und Brady (1992)(13) und Kjaerulff (1992)(14) verwendet. Die letzte Arbeit erweitert das HUGIN Bayes-Netzsystem um dynamische Bayessche Netzwerke. Das Buch von Dean and Wellman (1991)(15) trug dazu bei, DBNs und den probabilistischen Ansatz für Planung und Kontrolle innerhalb der KI zu popularisieren. Murphy (2002)(16) bietet eine gründliche Analyse der DBNs. Dynamische Bayessche Netzwerke haben sich bei der Modellierung einer Vielzahl komplexer Bewegungsprozesse im Bereich der Computervision durchgesetzt (Huang et al., 1994(17); Intille und Bobick, 1999)(18).
Wie HMMs haben sie Anwendungen in der Spracherkennung (Zweig und Russell, 1998(19)); Richardson et al., 2000(20); Stephenson et al., 2000(21); Nefian et al., 2002(22); Livescu et al., 2003(23)),
Norvig I 605
Genomik (Murphy und Mian, 1999(24); Perrin et al., 2003(25); Husmeier, 2003(26)) und Roboterlokalisierung (Theocharous et al., 2004)(27) gefunden. Die Verbindung zwischen HMMs und DBNs sowie zwischen dem Vorwärts-Rückwärts-Algorithmus und der Bayesschen Netzausbreitung wurde explizit von Smyth et al. (1997)(28) hergestellt. Eine weitere Vereinheitlichung mit Kalman-Filtern (und anderen statistischen Modellen) findet sich in Roweis und Ghahramani (1999)(29). Es gibt Verfahren zum Erlernen der Parameter (Binder et al., 1997a(30); Ghahramani, 1998)(31) und Strukturen (Friedman et al., 1998)(32) von DBNs.
Norvig I 606
Datenassoziation: Die Datenassoziation für das Multi Target Tracking wurde erstmals in einem probabilistischen Setting von Sittler (1964)(33) beschrieben. Der erste praktische Algorithmus für umfangreiche Probleme war der "Multiple Hypothesis Tracker" oder MHT-Algorithmus (Reid, 1979)(34). Viele wichtige Arbeiten werden bei Bar-Shalom und Fortmann (1988)(35) und Bar-Shalom (1992)(36) gesammelt. Die Entwicklung eines MCMC-Algorithmus für die Datenassoziation ist auf Pasula et al. (1999)(37) zurückzuführen, die ihn auf Probleme der Verkehrsüberwachung anwandten. Oh et al. (2009)(38) bieten eine formale Analyse und umfangreiche experimentelle Vergleiche mit anderen Methoden. Schulz et al. (2003)(39) beschreiben ein Datenassoziationsverfahren auf Basis der Partikelfilterung. Ingemar Cox analysierte die Komplexität der Datenassoziation (Cox, 1993(40); Cox und Hingorani, 1994(41)) und brachte das Thema in die Aufmerksamkeit der Vision Community. Er bemerkte auch die Anwendbarkeit des polynomialzeitlichen Ungarischen Algorithmus auf das Problem der Suche nach den wahrscheinlichsten Zuweisungen, die lange Zeit als ein hartnäckiges Problem in der Tracking-Community galten. Der Algorithmus selbst wurde von Kuhn (1955)(42) veröffentlicht, basierend auf Übersetzungen von Arbeiten, die 1931 von zwei ungarischen Mathematikern, Dénes König und Jenö Egerváry, veröffentlicht wurden. Das Grundtheorem war jedoch zuvor in einem unveröffentlichten lateinischen Manuskript des berühmten preußischen Mathematikers Carl Gustav Jacobi (1804-1851) abgeleitet worden.

1. Gauss, C. F. (1829). Beiträge zur Theorie der algebraischen Gleichungen. Collected in Werke,
Vol. 3, pages 71–102. K. Gesellschaft Wissenschaft, Göttingen, Germany, 1876.
2. Markov, A. A. (1913). An example of statistical investigation in the text of “Eugene Onegin” illustrating coupling of “tests” in chains. Proc. Academy of Sciences of St. Petersburg, 7.
3. Levin, D. A., Peres, Y., and Wilmer, E. L. (2008). Markov Chains and Mixing Times. American Mathematical Society.
4. Wiener, N. (1942). The extrapolation, interpolation, and smoothing of stationary time series. Osrd 370, Report to the Services 19, Research Project DIC-6037, MIT.
5. Kolmogorov, A. N. (1941). Interpolation und Extrapolation von stationären zufälligen Folgen. Bulletin of the Academy of Sciences of the USSR, Ser. Math. 5, 3–14.
6. Swerling, P. (1959). First order error propagation in a stagewise smoothing procedure for satellite observations. J. Astronautical Sciences, 6, 46–52.
7. Kalman, R. (1960). A new approach to linear filtering and prediction problems. J. Basic Engineering, 82, 35–46.
8. Baum, L. E. and Petrie, T. (1966). Statistical inference for probabilistic functions of finite state Markov chains. Annals of Mathematical Statistics, 41.
9. Viterbi, A. J. (1967). Error bounds for convolutional codes and an asymptotically optimum decoding algorithm. IEEE Transactions on Information Theory, 13(2), 260–269.
10. Rauch, H. E., Tung, F., and Striebel, C. T. (1965). Maximum likelihood estimates of linear dynamic systems. AIAA Journal, 3(8), 1445–1450.
11. Dempster, A. P., Laird, N., and Rubin, D. (1977). Maximum likelihood from incomplete data via the
EM algorithm. J. Royal Statistical Society, 39 (Series B), 1–38.
12. Dean, T. and Kanazawa, K. (1989b). A model for reasoning about persistence and causation. Computational Intelligence, 5(3), 142–150.
13. Nicholson, A. and Brady, J. M. (1992). The data association problem when monitoring robot vehicles using dynamic belief networks. In ECAI-92, pp. 689–693.
14. Kjaerulff, U. (1992). A computational scheme for reasoning in dynamic probabilistic networks. In
UAI-92, pp. 121–129.
15. Dean, T. and Wellman, M. P. (1991). Planning and Control. Morgan Kaufmann.
16. Murphy, K. (2002). Dynamic Bayesian Networks: Representation, Inference and Learning. Ph.D. thesis, UC Berkeley
17. Huang, T., Koller, D., Malik, J., Ogasawara, G., Rao, B., Russell, S. J., and Weber, J. (1994). Automatic symbolic traffic scene analysis using belief networks. In AAAI-94, pp. 966–972
18. Intille, S. and Bobick, A. (1999). A framework for recognizing multi-agent action from visual evidence. In AAAI-99, pp. 518-525.
19. Zweig, G. and Russell, S. J. (1998). Speech recognition with dynamic Bayesian networks. In AAAI-98, pp. 173–180.
20. Richardson, M., Bilmes, J., and Diorio, C. (2000). Hidden-articulator Markov models: Performance improvements and robustness to noise. In ICASSP-00.
21. Stephenson, T., Bourlard, H., Bengio, S., and Morris, A. (2000). Automatic speech recognition using
dynamic bayesian networks with both acoustic and articulatory features. In ICSLP-00, pp. 951-954.
22. Nefian, A., Liang, L., Pi, X., Liu, X., and Murphy, K. (2002). Dynamic bayesian networks for audiovisual speech recognition. EURASIP, Journal of Applied Signal Processing, 11, 1–15.
23. Livescu, K., Glass, J., and Bilmes, J. (2003). Hidden feature modeling for speech recognition using dynamic Bayesian networks. In EUROSPEECH-2003, pp. 2529-2532
24. Murphy, K. and Mian, I. S. (1999). Modelling gene expression data using Bayesian networks.
people.cs.ubc.ca/˜murphyk/Papers/ismb99.pdf.
25. Perrin, B. E., Ralaivola, L., and Mazurie, A. (2003).
Gene networks inference using dynamic Bayesian networks. Bioinformatics, 19, II 138-II 148.
26. Husmeier, D. (2003). Sensitivity and specificity of inferring genetic regulatory interactions from microarray experiments with dynamic bayesian networks. Bioinformatics, 19(17), 2271-2282.
27. Theocharous, G., Murphy, K., and Kaelbling, L. P. (2004). Representing hierarchical POMDPs as
DBNs for multi-scale robot localization. In ICRA-04.
28. Smyth, P., Heckerman, D., and Jordan, M. I. (1997). Probabilistic independence networks for hidden Markov probability models. Neural Computation, 9(2), 227-269.
29. Roweis, S. T. and Ghahramani, Z. (1999). A unifying review of Linear GaussianModels. Neural Computation, 11(2), 305-345.
30. Binder, J., Koller, D., Russell, S. J., and Kanazawa, K. (1997a). Adaptive probabilistic networks with hidden variables. Machine Learning, 29, 213-244.
31. Ghahramani, Z. (1998). Learning dynamic bayesian networks. In Adaptive Processing of Sequences
and Data Structures, pp. 168–197.
32. Friedman, N., Murphy, K., and Russell, S. J. (1998). Learning the structure of dynamic probabilistic
networks. In UAI-98.
33. Sittler, R. W. (1964). An optimal data association problem in surveillance theory. IEEE Transactions on Military Electronics, 8(2), 125-139.
34. Reid, D. B. (1979). An algorithm for tracking multiple targets. IEEE Trans. Automatic Control, 24(6), 843–854.
35. Bar-Shalom, Y. and Fortmann, T. E. (1988). Tracking and Data Association. Academic Press.
36. Bar-Shalom, Y. (Ed.). (1992). Multi target multi sensor tracking: Advanced applications. Artech House.
37. Pasula, H., Russell, S. J., Ostland, M., and Ritov, Y. (1999). Tracking many objects with many sensors. In IJCAI-99.
38. Oh, S., Russell, S. J., and Sastry, S. (2009). Markov chain Monte Carlo data association for multi-target tracking. IEEE Transactions on Automatic Control, 54(3), 481-497.
39. Schulz, D., Burgard, W., Fox, D., and Cremers, A. B. (2003). People tracking with mobile robots
using sample-based joint probabilistic data association filters. Int. J. Robotics Research, 22(2), 99-116
40. Cox, I. (1993). A review of statistical data association techniques for motion correspondence. IJCV, 10, 53–66.
41 Cox, I. and Hingorani, S. L. (1994). An efficient implementation and evaluation of Reid’s multiple hypothesis tracking algorithm for visual tracking. In ICPR-94, Vol. 1, pp. 437-442.
42. Kuhn, H. W. (1955). The Hungarian method for the assignment problem. Naval Research Logistics
Quarterly, 2, 83-97.

_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der Argumente
Der Hinweis [Begriff/Autor], [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] bzw. "Problem:"/"Lösung", "alt:"/"neu:" und "These:" ist eine Hinzufügung des Lexikons der Argumente.
KI-Forschung

Norvig I
Peter Norvig
Stuart J. Russell
Artificial Intelligence: A Modern Approach Upper Saddle River, NJ 2010

Send Link

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Y   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z