Lexikon der Argumente


Philosophische Themen und wissenschaftliche Debatten
 
[englisch]

Screenshot Tabelle Begriffes

 

Finden Sie Gegenargumente, in dem Sie NameVs…. oder….VsName eingeben.

Erweiterte Suche:
Suchbegriff 1: Autor oder Begriff Suchbegriff 2:Autor oder Begriff

zusammen mit




Der gesuchte Begriff oder Autor findet sich in folgenden 12 Einträgen:
Begriff/
Autor/Ismus
Autor
Autor
Eintrag
Eintrag
Literatur
Literatur
Entscheidungsprozesse Wirtschaftstheorien Parisi I 502
Entscheidungsprozesse/Ökonomische Theorien/Nitzan/Paroush: Nehmen wir an, (...) dass eine Asymmetrie zwischen den beiden Alternativen besteht. Die Asymmetrie kann aus drei verschiedenen Quellen stammen. Erstens können die Prioritäten der beiden Naturzustände (der Angeklagte ist unschuldig und der Angeklagte ist schuldig) unterschiedlich sein. Nehmen wir zum Beispiel an, dass die meisten Menschen keine Kriminellen sind. Um einen Angeklagten zu verurteilen, wird der Zustand "unschuldig" als Status quo betrachtet, der widerlegt werden muss, und der Zustand "schuldig" als die Alternative, die bewiesen werden muss. Daher wird erwartet, dass eine kollektive Entscheidung zur Verurteilung "über jeden Zweifel erhaben" ist, während ein kollektiver Freispruch zweifelhaft bleiben kann.
Zweitens kann der Nettonutzen einer korrekten Entscheidung in den beiden Fällen unterschiedlich ausfallen. Die beiden Arten von Fehlern - Freispruch eines schuldigen Angeklagten und Verurteilung eines unschuldigen Angeklagten - können unterschiedliche Kosten verursachen.
Drittens kann die Entscheidungskompetenz einer Person vom Naturzustand abhängen. Insbesondere kann die Wahrscheinlichkeit, richtig zu entscheiden, wenn der Staat "unschuldig" ist, anders sein als die Wahrscheinlichkeit, richtig zu entscheiden, wenn der Staat "schuldig" ist.
>Entscheidungsregeln.
In jedem Fall wird die Entscheidungskompetenz eines Individuums nicht durch eine einzige Wahrscheinlichkeit, eine richtige Wahl zu treffen, parametrisiert, sondern durch zwei Wahrscheinlichkeiten, in den beiden Naturzuständen richtig zu entscheiden. Bei Asymmetrie ist es erforderlich, dass eine der beiden Alternativen, z. B. die Verurteilung, nur dann die kollektive Wahl ist, wenn sie die Unterstützung einer besonderen Mehrheit mit einer Quote von mehr als der Hälfte erhält. Daher sollte die Entscheidungsregel bei Asymmetrie eine qualifizierte Mehrheitsregel (QMR) sein. Die qualifizierte Mehrheitsregel wird in mehreren Arbeiten im politischen Kontext von Verfassungen und Grundgesetzen sowie in Bezug auf Geschworene diskutiert (siehe, z.B.
Parisi I 503
Buchanan and Tullock, 1962(1); Rae, 1969)(2). Nitzan und Paroush (1984d)(3) waren die ersten, die die exakte Quote für die optimale BQR herleiteten, allerdings unter den restriktiven Bedingungen identischer Kompetenzen, die nicht vom Naturzustand abhängen. Der Sonderfall identischer Kompetenzen, die vom Naturzustand abhängen, wurde von Sah und Stiglitz (1988)(4) und Sah (1990(5), 1991(6)) eingehend analysiert. Unter Berücksichtigung heterogener und staatsabhängiger Kompetenzen geben Ben-Yashar und Nitzan (1997)(7) den Ausdruck sowohl für das Gewicht, das jedem Mitglied des Teams im Rahmen der optimalen Regel zugewiesen werden muss, als auch für die wünschenswerte Quote von Stimmen an, die für die Ablehnung des Status quo erforderlich ist. Die optimale Regel in diesem allgemeineren Fall ist daher eine gewichtete qualifizierte Mehrheitsregel (WQMR). Die optimale Gewichtung ist nun proportional zum Durchschnitt der Logarithmen der Quoten der beiden Wahrscheinlichkeiten, eine richtige Entscheidung zu treffen, und die optimale Quote ist eine Funktion von vier Parametern: dem Logarithmus der beiden Wahrscheinlichkeiten, eine richtige Entscheidung zu treffen, dem Logarithmus der ungeraden Vorwahrscheinlichkeit und dem Logarithmus des Verhältnisses der beiden Nettonutzen. >Condorcet-Jury-Theorem, >Jury-Theorem, >Arrow-Theorem.

1. Buchanan, J. M. and G. Tullock (1962). The Calculus of Consent: Logical Foundations of Constitutional Democracy. Ann Arbor, MI: University of Michigan Press.
2. Rae, D. W. (1969). “Decision-rules and individual values in constitutional choice.” American Political Science Review 63(1): 40–56.
3. Nitzan, S. and J. Paroush (1984d). “Are qualified majority rules special?” Public Choice 42(3): 257-272.
4. Sah, R. K. and J. Stiglitz (1988). “Committees, hierarchies and polyarchies.” Economic Journal 98(391): 451-470.
5. Sah, R. K. (1990). “An explicit closed-form formula for profit-maximizing k-out-of-n systems subject to two kinds of failures.” Microelectronics and Reliability 30(6): 1123-1130.
6. Sah, R. K. (1991). “Fallibility in human organizations and political systems.” Journal of Economic Perspectives 5(2): 67-88. Sah, R. K. and J. Stiglitz (1985).
7. Ben-Yashar, R. and S. Nitzan (1997). “The optimal decision rule for fixed size committees in dichotomous choice situations - The general result.” International Economic Review 38(1): 175-187.


Shmuel Nitzan and Jacob Paroush. “Collective Decision-making and the Jury Theorems”. In: Parisi, Francesco (ed) (2017). The Oxford Handbook of Law and Economics. Vol 1: Methodology and Concepts. NY: Oxford University.

Parisi I
Francesco Parisi (Ed)
The Oxford Handbook of Law and Economics: Volume 1: Methodology and Concepts New York 2017
Entscheidungsregeln Demokratietheorie Parisi I 497
Entscheidungsregeln/Demokratietheorie/Entscheidungsprozesse/Demokratie/Nitzan/Paroush: Shapley und Grofman (1981, 1984)(1) sowie Nitzan und Paroush (1982(2), 1984b(3)) stellen fest, dass die optimale Entscheidungsregel eher eine gewichtete Mehrheitsregel (WMR) als eine einfache Mehrheitsregel (SMR) ist, wenn heterogene Entscheidungsfähigkeiten berücksichtigt werden. Durch die Maximierung der Wahrscheinlichkeit, dass sich das Team für die bessere der beiden Möglichkeiten entscheidet, stellen sie außerdem fest, dass die optimalen Gewichte proportional zum Logarithmus der Quoten der Kompetenzen der einzelnen Personen sind, d. h. die Gewichte wi sind proportional zu log[pi ∕(1-pi)].
Parisi I 498
In einem fünfköpfigen Team gibt es zum Beispiel sieben verschiedene effiziente, potenziell optimale Regeln. Zu diesen Regeln gehören die "Beinahe-Expertenregel", die "Beinahe-Mehrheitsregel" und die "Unentschiedene-Vorsitzende-Regel". Die Zahl der effizienten Regeln nimmt mit der Größe des Teams sehr schnell zu. In einem Team mit neun Mitgliedern beträgt die Zahl der effizienten Regeln beispielsweise bereits 172 958 (siehe Isbell, 1959)(4). Nun stellt sich die folgende Frage: Gibt es eine mathematische Beziehung zwischen der Größe des Teams und der genauen Anzahl effizienter Regeln? Diese einfache Frage ist noch offen. Die Existenz von Ordnungsbeziehungen zwischen Entscheidungsregeln wird erstmals von Nitzan und Paroush (1985(5), S. 35) festgestellt. Die Existenz einer solchen Ordnung bedeutet,
Parisi I 499
erstens, dass die Anzahl der Rangordnungen von m effizienten Regeln deutlich kleiner ist als die theoretische Anzahl m! aller möglichen Rangordnungen dieser Regeln und zweitens, dass seine Existenz unabhängig von der Kompetenz des Teams ist. Abgesehen von dem theoretischen Interesse an der Untersuchung der Reihenfolge effizienter Entscheidungsregeln hat die Information über die Reihenfolge auch nützliche Anwendungen. Da die Ordnungsbeziehungen unabhängig von den spezifischen Kompetenzen der Entscheidungsträger sind, ist das Wissen über die Reihenfolge der Regeln in Fällen wichtig, in denen die Kompetenzen unbekannt oder nur teilweise bekannt sind. Wenn zum Beispiel aus irgendeinem Grund (z. B. zu hohe Kosten) die optimale Regel nicht verwendet werden kann, kann das Team auch ohne Kenntnis der Entscheidungskompetenzen anhand der bekannten Reihenfolge der Entscheidungsregeln die zweitbeste Regel, die drittbeste Regel usw. ermitteln.
Parisi I 501
Im Kontext der Condorcet'schen Einstellung kann die optimale kollektive Entscheidungsregel identifiziert werden, wenn die Individuen ein gemeinsames Ziel und verschiedene Informationen haben, die zu ihren Entscheidungen führen (...). >Condorcet-Jury-Theorem.
In einem binären Umfeld und bei unterschiedlichen Präferenzen kann man jedoch dieselben optimalen kollektiven Entscheidungsregeln durch ihre einzigartige axiomatische Charakterisierung erreichen. In einem allgemeineren Umfeld mit mehreren Alternativen wird der potenzielle Erfolg des axiomatischen Ansatzes jedoch durch die klassischen Unmöglichkeitstheoreme von Arrow (1951)(6) und seinen Nachfolgern getrübt. Wenn nur wenige vernünftige Axiome von der Aggregationsregel erfüllt werden müssen, gibt es bekanntlich keine soziale Wohlfahrtsfunktion.

1. Shapley, L. and B. Grofman (1984). “Optimizing group judgmental accuracy in the presence of interdependence.” Public Choice 43(3): 329-343.
2. Nitzan, S. and J. Paroush (1981). “The characterization of decisive weighted majority rules.” Economics Letters 7(2): 119-123.
3. Nitzan, S. and J. Paroush (1984b). “A general theorem and eight corollaries in search of a correct decision.” Theory and Decision 17(3): 211-220.
4. Isbell, J. R. (1959). “On the enumeration of majority games.” Mathematical Tables and Other Aids of Computation 13(65): 21-28.
5. Nitzan, S. and J. Paroush (1985). Collective Decision Making: An Economic Outlook. Cambridge: Cambridge University Press.
6. Arrow, K. J. (1951). Social Choice and Individual Values (New York: John Wiley & Sons).


Shmuel Nitzan and Jacob Paroush. “Collective Decision-making and the Jury Theorems”. In: Parisi, Francesco (ed) (2017). The Oxford Handbook of Law and Economics. Vol 1: Methodology and Concepts. NY: Oxford University.

Parisi I
Francesco Parisi (Ed)
The Oxford Handbook of Law and Economics: Volume 1: Methodology and Concepts New York 2017
Forschung Aghion Aghion I 324
Forschung/Aghion/Howitt: Die funktionale Beziehung zwischen der Forschung in zwei aufeinanderfolgenden Zeiträumen hat einen einzigartigen Fixpunkt, der ein stationäres Gleichgewicht definiert. >Fixpunkte.
Das stationäre Gleichgewicht weist ein ausgewogenes Wachstum auf, in dem Sinne, dass die Verteilung qualifizierter Arbeitskräfte zwischen Forschung und Produktion bei jeder Innovation unverändert bleibt;
Aghion I 325
der Logarithmus des BSP folgt einem Zufallsweg mit Drift. Dies ist jedoch nicht immer das einzige Gleichgewicht im Modell. >Bruttosozialprodukt (BSP), >Qualifizierte Arbeitskräfte.
Eine bemerkenswerte Auswirkung der negativen Abhängigkeit der aktuellen Forschung von der zukünftigen Forschung ist die mögliche Existenz einer sogenannten „No-Growth-Falle”, einem zyklischen Gleichgewicht, in dem das Forschungsniveau deterministisch zwischen zwei Niveaus pro Periode schwankt und das niedrigere dieser beiden Niveaus Null ist.
>Wirtschaftswachstum, >Endogenes Wachstum.
Eine Wirtschaft in einem solchen Gleichgewicht würde in endlicher Zeit aufhören zu wachsen, da es ohne Forschung keine Innovation gäbe und somit die Phase ohne Forschung niemals enden würde.
>Gleichgewicht, >Innovation, >Erfindungen, >Forschung und Entwicklung.
Die (rationale) Erwartung, dass auf die nächste Innovation ein sehr hohes Forschungsniveau folgen würde, würde jeden davon abhalten, diese Innovation zu verwirklichen.
Eine weitere Folge ist, dass die durchschnittliche Wachstumsrate der Wirtschaft nicht unbedingt durch eine Steigerung der Produktivität der Forschung erhöht wird. Insbesondere kann eine Parameteränderung, die die Forschung in einigen Teilen der Welt produktiver macht, die Forschung in anderen Teilen der Welt behindern, indem sie die Gefahr der Veralterung der Forschungsergebnisse in diesen anderen Teilen der Welt so weit erhöht,
dass die durchschnittliche Wachstumsrate sinkt.
>Produktivität, >Innovation/Aghion/Howitt.
Aus normativer Sicht kann die durchschnittliche Wachstumsrate im stationären Gleichgewicht aufgrund widersprüchlicher Verzerrungseffekte mehr oder weniger als sozial optimal sein. Konkret bedeutet dies, dass das Modell zwar die Aneignbarkeit und intertemporale Spillover-Effekte berücksichtigt, die in Romers (1990)(1) Modell zu einer suboptimalen Wachstumsrate führen, aber auch Effekte aufweist, die in die entgegengesetzte Richtung wirken. Insbesondere gibt es einen „Business-Stealing”-Effekt, wie er aus der Literatur zum Patentwettlauf bekannt ist (Tirole (1988(2), S. 399)). Das heißt, Forscher internalisieren nicht die Zerstörung bestehender Renten, die durch ihre Innovationen geschaffen werden. Wenn die Größe der Innovationen als gegeben angenommen wird, kann der Business-Stealing-Effekt zu einem zu starken Wachstum führen. Darüber hinaus stellen wir fest, dass der Geschäftsentzugseffekt dazu neigt, Innovationen zu klein zu machen, wenn der Umfang der Innovationen endogenisiert wird.
>Innovation/Wirtschaftstheorien.
Vgl. >Geistiges Eigentum, >Patente, >Copyright.

1. ROMER, P. M. (1990): "Endogenous Technological Change," Journal of Political Economy, 98, S71-S102.
2. TIROLE, J. (1988): The Theory of Industrial Organization. Cambridge, MA: M.I.T. Press.

Aghion I
Philippe Aghion
Peter W. Howitt
A Model of Growth Through Creative Destruction Econometrica, Vol. 60, No. 2 (Mar., 1992), pp. 323-351 1992
Impulsreaktionsfunktionen Ostry Ostry I 4
Impulsreaktionsfunktion/Furceri/Hannan/Ostry/Rose: Wir stützen uns auf die berühmte lokale Projektionsmethode von Jorda (2005)(1) zur Schätzung von Impulsreaktionsfunktionen, die es uns ermöglicht, Nichtlinearitäten flexibel zu berücksichtigen, ohne potenziell unangemessene dynamische Einschränkungen aufzuerlegen.(2) >Zölle, >Methode/Ostry.
Ostry I 9
(...) verwenden wir die bekannte lokale Projektionsmethode - im Folgenden „LPM“ (Jordà, 2005)(1) - zur Schätzung von Impuls-Antwort-Funktionen.
Ostry I 10
Dieser Ansatz wurde u. a. von Stock und Watson (2007)(3) und Auerbach und Gorodnichenko (2013)(4) als flexible Lösung befürwortet, die keine dynamischen Einschränkungen mit sich bringt. In Modellen wie Vektorautoregressionen oder autoregressiv-verteilten Lag-Spezifikationen ist sie besonders geeignet, um Nichtlinearitäten in den dynamischen Antworten zu schätzen. Die Basisregression wird wie folgt spezifiziert:

yi,t+k - yi,t-1 = αi + γt + βΔTi,t + νXi,t + εi,t

wobei:
- yi,t+k ist die interessierende Ergebnisvariable (Logarithmus der Produktion, Produktivität, Arbeitslosenquote
, Gini-Koeffizient, logarithmischer realer Wechselkurs oder Handelsbilanz/BIP) für Land i zum
Zeitpunkt t+k,
- {αi} sind feste Ländereffekte zur Kontrolle unbeobachteter länderübergreifender Heterogenität,
- {γt} sind zeitfixe Effekte zur Kontrolle für globale Schocks,
- ∆Ti,k ist die Änderung des Zollsatzes,
- ν ist ein Vektor von Störkoeffizienten
- Xi,t ist ein Vektor von Kontrollvariablen, einschließlich jeweils zwei Verzögerungen von: a) Änderungen der abhängigen Variable
, b) dem Zoll, c) dem Logarithmus der Produktion, d) dem Logarithmus der realen Wechselkurse und
d) der Handelsbilanz in Prozent des BIP, und
- ε ist ein unerklärtes (hoffentlich wohlgeratenes) Residuum.
Ostry I 11
Die Koeffizienten, die uns am meisten interessieren, sind {β}, die Impulsantworten unserer interessierenden Variablen auf Änderungen des Zollsatzes.(5)
>Zölle/Ostry, >Methode/Ostry, >Zollauswirkungen, >Zollreaktionen.

1. Jordà, Oscar, 2005, “Estimation and Inference of Impulse Responses by Local Projections,” American Economic Review, vol. 95(1), pp. 161-182.
2. Wir versuchen auch, eine potenzielle Endogenität durch eine Strategie mit Instrumentalvariablen zu berücksichtigen, indem wir Änderungen der Zölle bei wichtigen großen Handelspartnern als Instrumente verwenden.
3. Stock, James, and Mark Watson, “Why Has U.S. Inflation Become Harder to Forecast?” Journal of Money, Banking and Credit, vol. 39(1), pp. 3-33.
4. Auerbach, Alan J., and Yuriy Gorodnichenko, 2013, “Output Spillovers from Fiscal Policy,” American Economic Review: Papers and Proceedings, vol. 103(3), pp. 141-146.
5. Da der Satz von Kontrollvariablen Verzögerungen des Produktionswachstums sowie des realen Wechselkurses und der Handelsbilanz umfasst, entspricht dieser Ansatz einem VAR-Ansatz, bei dem Zollschocks nicht auf Schocks in anderen Variablen innerhalb eines Jahres reagieren. Wir lockern diese Annahme später im Rahmen einer Robustheitsprüfung.

Ostry I
Jonathan D. Ostry
Davide Furceri
Andrew K. Rose,
Macroeconomic Consequences of Tariffs. IMF Working Paper. WP/19/9.International Monetary Fund. Washington, D.C. 2019
Information Shannon Brockman I 155
Information/Shannon/Kaiser: In Shannons inzwischen berühmter Formulierung(1) ergab sich der Informationsgehalt einer Zeichenkette durch den Logarithmus der Anzahl der möglichen Symbole, aus denen eine bestimmte Zeichenkette ausgewählt wurde. Shannons wichtigste Erkenntnis war, dass die Information einer Nachricht genau wie die Entropie eines Gases war: ein Maß für die Störung des Systems. >Rauschen, >Systeme, >Entropie.
Brockman I 154
(....) Der Mathematiker Warren Weaver erklärte, dass in Shannons Formulierung "das Wort Information.... in einem besonderen Sinne verwendet wird, der nicht mit seinem normalen Gebrauch verwechselt werden darf. Insbesondere dürfen Informationen nicht mit Bedeutung verwechselt werden.(2) Sprachwissenschaftler und Dichter seien vielleicht besorgt über die "semantischen" Aspekte der Kommunikation, fuhr Weaver fort, aber nicht Ingenieure wie Shannon.
Vielmehr bezieht sich "dieses Wort "Information" in der Kommunikationstheorie nicht so sehr auf das, was man sagt, sondern auf das, was man sagen könnte." (2).
>Kommunikationstheorie.

1. Claude Shannon, A Mathematical Theory of Communication, Bell System Technical Journal (1948), Vol. 27/3
2. Warren Weaver, ’Recent Contributions to the Mathematical Theory of Communication,” in Claude Shannon and Warren Weaver, The Mathematical Theory of Communication (Urbana: University of Illinois Press, 1949), 8.

Kaiser, David “”information” for Wiener, for Shannon, and for Us” in: Brockman, John (ed.) 2019. Twenty-Five Ways of Looking at AI. New York: Penguin Press.

Brockman I
John Brockman
Possible Minds: Twenty-Five Ways of Looking at AI New York 2019
Innovation Aghion Aghion I 323
Wirtschaftswachstum/Innovation/These/Aghion/Howitt: Sowohl die durchschnittliche Wachstumsrate als auch die Varianz der Wachstumsrate sind steigende Funktionen der Größe der Innovationen, der Größe der qualifizierten Arbeitskräfte und der Produktivität der Forschung, gemessen anhand eines Parameters, der den Einfluss der Forschung auf die Poisson-Ankunftsrate von Innovationen angibt; und fallende Funktionen der Zeitpräferenzrate des repräsentativen Individuums. >Forschung und Entwicklung, >Qualifizierte Arbeitskräfte, >Produktivität, >Zeitpräferenz.
Unter Laissez-faire-Bedingungen kann die Wachstumsrate der Wirtschaft mehr oder weniger als optimal sein, da das Modell zusätzlich zu den Aneignungs- und intertemporalen Spillover-Effekten anderer endogener Wachstumsmodelle, die das Wachstum tendenziell langsamer als optimal machen, auch Effekte hat, die in die entgegengesetzte Richtung wirken.
>Laissez-faire, >Wissensspillover, >Endogenes Wachstum, vgl. >Exogenes Wachstum.
Insbesondere die Tatsache, dass private Forschungsunternehmen die Zerstörung der durch ihre Innovationen generierten Renten nicht internalisieren, führt zu einem Geschäftsentzugseffekt, der dem in der Literatur zum partiellen Gleichgewicht im Patentwettbewerb ähnelt.
>Patente, >Gleichgewicht, >Copyright, >Renten, >Einnahmen, >Geistiges Eigentum.
Wenn wir die Größe von Innovationen endogenisieren, stellen wir fest, dass Geschäftsdiebstahl auch dazu führt, dass Innovationen zu klein sind.
>Endogenes Wachstum/Aghion/Howitt.
Aghion I 324
Innovation/Aghion/Howitt: (…) [Unser] Modell* geht in Anlehnung an Schumpeter davon aus, dass einzelne Innovationen ausreichend wichtig sind, um die gesamte Wirtschaft zu beeinflussen. >Innovation/Schumpeter.
Methode: Ein Zeitraum ist die Zeit zwischen zwei aufeinanderfolgenden Innovationen. Die Länge jedes Zeitraums ist aufgrund der stochastischen Natur des Innovationsprozesses zufällig, aber die Beziehung zwischen dem Forschungsaufwand in zwei aufeinanderfolgenden Zeiträumen kann als deterministisch modelliert werden. Der Forschungsaufwand in diesem Zeitraum hängt durch zwei Effekte negativ vom erwarteten Aufwand im nächsten Zeitraum ab.
1) Der erste Effekt ist der der kreativen Zerstörung. Der Ertrag aus der Forschung in dieser Periode ist die Aussicht auf Monopoleinkünfte in der nächsten Periode. Diese Einkünfte bestehen nur so lange, bis die nächste Innovation eintritt, wodurch das diesen Einkünften zugrunde liegende Wissen obsolet wird. Daher hängt der erwartete Barwert der Einkünfte negativ von der Poisson-Ankunftsrate der nächsten Innovation ab. Die Erwartung von mehr Forschung in der nächsten Periode erhöht diese Ankunftsrate und schreckt somit von Forschung in dieser Periode ab.
>Kreative Zerstörung.
2) Der zweite Effekt ist ein allgemeiner Gleichgewichtseffekt, der über die Löhne für qualifizierte Arbeitskräfte wirkt, die entweder in der Forschung oder in der Produktion eingesetzt werden können. Um mit den Bedingungen für ein Gleichgewicht auf dem Arbeitsmarkt vereinbar zu sein, muss die Erwartung einer verstärkten Forschungstätigkeit im nächsten Zeitraum mit der Erwartung einer höheren Nachfrage nach qualifizierten Arbeitskräften in der Forschung im nächsten Zeitraum einhergehen, was wiederum die Erwartung
höherer Reallöhne für qualifizierte Arbeitskräfte impliziert. Höhere Löhne in der nächsten Periode verringern die Monopoleinkünfte, die durch exklusives Wissen über die Herstellung der besten Produkte erzielt werden können. Somit wird die Erwartung von mehr Forschung in der nächsten Periode die Forschung in dieser Periode behindern, da sie den Fluss der Einkünfte verringert, die ein erfolgreicher Innovator voraussichtlich erzielen wird.
>Qualifizierte Arbeitskräfte, >Gleichgewicht, >Löhne, >Reallohn.
Diese funktionale Beziehung zwischen Forschung in zwei aufeinanderfolgenden Perioden hat einen einzigartigen Fixpunkt, der ein stationäres Gleichgewicht definiert.
>Fixpunkte.
Das stationäre Gleichgewicht weist ein ausgewogenes Wachstum auf, in dem Sinne, dass die Verteilung der Fachkräfte zwischen Forschung und Produktion bei jeder Innovation unverändert bleibt.
Aghion I 325
Das Logarithmus des BSP folgt einem Zufallsweg mit Drift. Dies ist jedoch nicht immer das einzige Gleichgewicht im Modell. >Bruttoinlandsprodukt (BIP).
Wie in der Literatur zu überlappenden Generationen kann die funktionale Beziehung auch durch zyklische Verläufe erfüllt werden.
Wachstum: Eine bemerkenswerte Auswirkung der negativen Abhängigkeit der aktuellen Forschung von der zukünftigen Forschung ist die mögliche Existenz einer sogenannten „No-Growth-Falle”, einem zyklischen Gleichgewicht, in dem das Forschungsniveau deterministisch zwischen zwei Niveaus pro Periode schwankt und das niedrigere dieser beiden Niveaus Null ist. Eine Wirtschaft in einem solchen Gleichgewicht würde in endlicher Zeit aufhören zu wachsen, da es ohne Forschung keine Innovation gäbe und somit die Periode ohne Forschung niemals enden würde. Die (rationale) Erwartung, dass auf die nächste Innovation ein sehr hohes Forschungsniveau folgen würde, würde jeden davon abhalten, diese Innovation zu verwirklichen.
>Wirtschaftswachstum, >Endogenes Wachstum, vgl. >Exogenes Wachstum, >Neue Wachstumstheorie, >Wirtschaftliche Erwartungen, >Forschung/Aghion/Howitt.

* Philippe Aghion and Peter Howitt. (1992). A Model of Growth Through Creative Destruction
Econometrica, Vol. 60, No. 2 (Mar., 1992), pp. 323-351

Aghion I
Philippe Aghion
Peter W. Howitt
A Model of Growth Through Creative Destruction Econometrica, Vol. 60, No. 2 (Mar., 1992), pp. 323-351 1992
Mehrheiten Demokratietheorie Parisi I 497
Mehrheiten/Demokratietheorie/Entscheidungsfindung/Demokratie/Nitzan/Paroush: Condorcet, der ein großer Anhänger der Weisheit der Menge war, gehörte zu den ersten, die die philosophischen Grundlagen der Demokratie festlegten. Insbesondere glaubte er fest an die Überlegenheit der einfachen Mehrheit gegenüber anderen Entscheidungsregeln (siehe Grofman, 1975)(1). >Jury-Theorem/Condorcet, >Condorcet-Jury-Theorem, >Kollektive Intelligenz, >Demokratie.
Heute ist jedoch bekannt, dass die einfache Mehrheitsregel ihre Überlegenheit verlieren kann, wenn die Kompetenzen der Teammitglieder "öffentlich bekannt" sind. Viele Studien haben alternative Kriterien für die Optimalität einer Entscheidungsregel vorgeschlagen (siehe z. B. Rae, 1969(2); Straffin, 1977(3); Fishburn und Gehrlein, 1977(4)).
Im Folgenden wird jedoch die Annahme beibehalten, dass die Kompetenz des Teams, Π, das Kriterium für die Optimalität der Entscheidungsregel ist. Da die Teammitglieder homogene Präferenzen haben, ist dieses Kriterium auch mit dem (äquivalenten) erwarteten Nutzen vereinbar. Shapley und Grofman (1981(5), 1984(6)) sowie Nitzan und Paroush (1982(7), 1984b(8)) stellen fest, dass die optimale Entscheidungsregel eher eine gewichtete Mehrheitsregel (WMR) als eine einfache Mehrheitsregel (SMR) ist, wenn heterogene Entscheidungsfähigkeiten berücksichtigt werden. Durch Maximierung der Wahrscheinlichkeit, dass sich das Team für die bessere der beiden Möglichkeiten entscheidet, stellen sie außerdem fest, dass die optimalen Gewichte proportional zum Logarithmus der Quoten der individuellen Kompetenzen sind, d. h. die Gewichte wi sind proportional zu log[pi ∕(1-pi)].
>Entscheidungsprozesse, >Entscheidungsregeln.

1. Grofman, B. (1975). “A comment on ‘Democratic Theory: A Preliminary Mathematical Model.” Public Choice 21(1): 100-103.
2. Rae, D. W. (1969). “Decision-rules and individual values in constitutional choice.” American Political Science Review 63(1): 40-56.
3. Straffin, Jr., P. D. (1977). “Majority rule and general decision rules.” Theory and Decision 8(4): 351-360.
4. Fishburn, P. C. and W. V. Gehrlein (1977). “Collective rationality versus distribution of power of binary social choice functions.” Journal of Economic Theory 15(1): 72-91.
5. Shapley, L. and B. Grofman (1984). “Optimizing group judgmental accuracy in the presence of interdependence.” Public Choice 43(3): 329-343.
6. Nitzan, S. and J. Paroush (1981). “The characterization of decisive weighted majority rules.” Economics Letters 7(2): 119-123.
7. Nitzan, S. and J. Paroush (1984b). “A general theorem and eight corollaries in search of a correct decision.” Theory and Decision 17(3): 211-220.


Shmuel Nitzan and Jacob Paroush. “Collective Decision-making and the Jury Theorems”. In: Parisi, Francesco (ed) (2017). The Oxford Handbook of Law and Economics. Vol 1: Methodology and Concepts. NY: Oxford University.

Parisi I
Francesco Parisi (Ed)
The Oxford Handbook of Law and Economics: Volume 1: Methodology and Concepts New York 2017
Neo-Fisher-Effekt Uribe Uribe I 4
Def Fisher-Effekt/Uribe: Eine Vielzahl empirischer und theoretischer Studien argumentieren, dass eine vorübergehende positive Störung des Nominalzinses einen vorübergehenden Anstieg des Realzinses verursacht, was wiederum die Gesamtnachfrage und die Inflation (...) herunter drückt (siehe zum Beispiel
I 5
Christiano, Eichenbaum und Evans, 2005)(1). Ebenso ist eine Eigenschaft praktisch aller modernen geldwirtschaftlich untersuchten Modelle, dass ein vorübergehender Anstieg des Nominalzinses langfristig keinen Einfluss auf die Inflation hat. Im Gegensatz dazu, wenn der Anstieg des Nominalzinses dauerhaft ist, muss die Inflation früher oder später um etwa das gleiche Ausmaß steigen, wenn der Realzins, gegeben durch die Differenz zwischen dem Nominalzins und der erwarteten Inflation, nicht langfristig durch nominale Faktoren bestimmt wird (...). Diese eins-zu-eins langfristige Beziehung zwischen Nominalzinsen und Inflation wird als Fisher-Effekt bezeichnet. Def Neo-Fisher Effekt/Uribe: Der Neo-Fisher-Effekt besagt, dass ein permanenter Anstieg des Nominalzinses nicht nur langfristig, sondern auch kurzfristig zu einem Anstieg der Inflation führt.
I 6
Der Fisher-Effekt liefert jedoch keine Prognose, wann die Inflation wahrscheinlich
I 8
den dauerhaften Anstieg des Nominalzinses einholen wird. Sie besagt nur, dass sie dies schließlich tun muss.
Uribe I 8
Neo-Fisher-Effekt/Empirisches Modell/Neu-Keynesianisches Modell/Inflation/Zinsen/Uribe: Empirisches Modell: Das empirische Modell zielt darauf ab, die Dynamik von drei makroökonomischen Indikatoren (...) zu erfassen: der Logarithmus der realen Pro-Kopf-Leistung (...), die Inflationsrate (...), ausgedrückt in Prozent pro Jahr, und der Nominalzins (....), ausgedrückt in Prozent pro Jahr.
[Uribe] geht davon aus, dass [die drei obigen Indikatoren] von vier exogenen Schocks getrieben werden: einem nicht stationären (oder permanenten) monetären Schock (...), einem stationären (oder vorübergehenden) monetären Schock (...), einem nicht stationären nicht monetären Schock (...) und einem stationären nicht monetären Schock (...).
I 16
[Uribe] schätz[t] das empirische Modell auf vierteljährlichen US-Daten über den Zeitraum 1954:Q3 bis 2018:Q2.
I 18
Das Hauptergebnis [aus dem empirischen Modell] ist, dass die Anpassung der Inflation an ihr höheres langfristiges Niveau kurzfristig erfolgt. Tatsächlich steigt die Inflation um 1 Prozent und bleibt danach in etwa auf diesem Niveau. Auf der realen Seite der Wirtschaft führt der permanente Anstieg des Nominalzinses nicht zu einem Rückgang der Gesamtaktivität. Tatsächlich weist die Produktion eine vorübergehende Expansion auf. Dieser Effekt könnte die Folge niedriger Realzinsen sein, die sich aus der schnellen Konjunkturbelebung nach dem permanenten Zinsschock ergeben. Aufgrund der schnelleren Reaktion der Inflation im Verhältnis zu dem des Nominalzinses fällt der Realzins bei Belastung um fast 1 Prozent und nähert sich von unten auf sein stationäres Niveau an, was bedeutet, dass die gesamte Anpassung an einen permanenten Zinsschock im Zusammenhang mit niedrigen Realzinsen erfolgt.
I 22
Wie wichtig sind nicht-stationäre monetäre Schocks? Die Relevanz des Neo-Fisher-Effekts hängt nicht nur davon ab, ob er in den Ist-Daten identifizierbar ist (...), sondern auch davon, ob permanente monetäre Schocks eine wichtige Rolle bei der Erklärung kurzfristiger Bewegungen der Inflationsrate spielen.
I 23
Das empirische Modell weist dieser Art von monetärer Störung [dem nicht-stationären monetären Schock] eine bedeutende Rolle zu, insbesondere bei der Erklärung von Bewegungen bei nominalen Variablen. Im Vergleich dazu erklärt der stationäre monetäre Schock einen relativ kleinen Anteil der Bewegungen in den drei im Modell enthaltenen makroökonomischen Indikatoren.
I 25
Zusammenfassend prognostiziert das geschätzte empirische Modell, dass ein permanenter Anstieg des Nominalzinses zu einem sofortigen Anstieg der Inflation und einer Übergangsdynamik führt, die durch niedrige Realzinsen und keinen Output-Verlust gekennzeichnet ist. >Terminologie/Uribe
Neu-Keynesianisches Modell: In diesem Abschnitt wird das Vorhandensein eines Neo-Fisher-Effekts im Rahmen eines geschätzten Standardoptimierungsmodells in der neokeynesianischen Tradition untersucht. [Das Modell] wird von sechs Schocks angetrieben: permanenten und vorübergehenden Zinsschocks, permanenten und vorübergehenden Produktivitätsschocks, einem Präferenzschock und einem Arbeitskräfteversorgungsschock.
I 37
Die Antworten, die das neukeynesianische Modell impliziert, stimmen mit denen des empirischen Modells überein (...). Eine Erhöhung des Nominalzinssatzes, die von privaten Agenten als dauerhaft angesehen wird (...), führt kurzfristig zu einem Anstieg der Inflation, ohne dass die Gesamtaktivität verloren geht. Im Gegensatz dazu verursacht eine Erhöhung des nominalen Zinssatzes, der als
I 39
vorübergehend interpretiert wird (...), einen Rückgang der Inflation und einen Rückgang der Gesamtaktivität. Die Reaktion auf einen permanenten Anstieg der Nominalzinseninflation, heißt nicht nur, dass die Inflation zu steigen beginnt, sondern dies auch schneller tut als der Nominalzins. Infolgedessen sinkt der Realzins. Im Gegensatz dazu führt ein vorübergehender Anstieg des Nominalzinses zu einem Rückgang der Inflation und einem Anstieg des Realzinses. Eine natürliche Frage ist, warum sich die Inflation kurzfristig schneller bewegt als der Zinssatz, wenn der Währungsschock voraussichtlich dauerhaft sein wird. Die Antwort hat mit dem Vorhandensein von nominalen Rigiditäten und mit der Art und Weise zu tun, wie die Zentralbank die Geldpolitik betreibt. Als Reaktion auf einen permanenten
I 40
Geldschock, der den Nominalzins langfristig um ein Prozent erhöht, erhöht die Zentralbank den kurzfristigen Leitzins schnell, aber schrittweise. Gleichzeitig wissen die Unternehmen, dass durch den Fisher-Effekt das Preisniveau langfristig um ein Prozent steigen wird und dass auch sie langfristig ihren eigenen Preis im gleichen Verhältnis erhöhen müssen, um Verluste zu vermeiden. Da Unternehmen mit quadratischen Kosten für die Preisanpassung konfrontiert sind, finden sie es optimal, sofort mit der Erhöhung des Preises zu beginnen. Da alle Unternehmen das Gleiche tun, beginnt die Inflation selbst zu steigen, sobald der Schock angekündigt wird.

1. Christiano, Lawrence J., Martin Eichenbaum, and Charles L. Evans, “Nominal Rigidities and the Dynamic Effects of a Shock to Monetary Policy,” Journal of Political Economy 113, 2005, 1-45.


Martín Uribe (2019): The Neo-Fisher Effect: Econometric Evidence from Empirical and Optimizing Models. In: NBER Working Paper No. 25089.

Uribe I
Martin Uribe
The Neo-Fisher Effect: Econometric Evidence from Empirical and Optimizing Models. NBER Working Paper No. 25089 2019
Objektivität Field I 272f
Def Objektivität/Mathematik/Kreisel/Putnam/Field: Objektivität soll darin bestehen, dass wir nur die wahren Axiome glauben. Problem: Die Axiome beziehen sich auch auf die Ontologie.
>Axiome, >Ontologie.
I 274
Ontologie muss nicht in Begriffen der Wahrheit der Axiome erklärt werden - das geht nämlich nicht in den assoziierten modalen Sätzen. >Modalitäten, >Propositionen.
I 277
Objektivität/Mathematik/Mengenlehre/ML/Field: Selbst wenn wir "e" als fix annehmen, braucht die platonistische (!) Sicht nicht anzunehmen, dass die Wahrheiten objektiv determiniert sind. Denn es gibt andere Gesamtheiten, über die die Quantoren in einer Mengenlehre gehen können. >Platonismus, >Quantoren, >Mengenlehre.
Putnam: weiter: Es gibt gar keinen Grund "e" fixiert zu halten.
FieldVsPutnam: Verwechslung der Sicht, dass Referenz festgelegt wird (z.N. kausal) mit der Sicht, dass sie durch eine Beschreibungstheorie festgelegt wird, die "Ursache" enthält.
II 316
Objektivität/Wahrheit/Mathematik/Field: These: Selbst wenn es keine mathematischen Objekte gibt, warum sollte es nicht der Fall sein, dass es genau einen Wert von n gibt, für den An - modal interpretiert - objektiv wahr ist? >Beweisbarkeit, >Korrektheit.
II 316
Mathematische Objektivität/Field: Für sie brauchen wir nicht die Existenz mathematischer Objekte anzunehmen, wenn wir die Objektivität der Logik voraussetzen - objektiv korrekt sind aber nur Sätze der Mathematik, die aus den Axiomen bewiesen werden können.
II 319
Mathematische Begriffe sind nicht kausal mit ihren Prädikaten verbunden ((s) sondern begrifflich) - Bsp für jede Wahl einer Mächtigkeit des Kontinuums können wir Eigenschaften und Relationen für unsere mengentheoretischen Begriffe (hier: Vokabular) finden, die diese Wahl wahr machen und eine andere Wahl falsch. Vgl. >Wahrmacher.
II 320
Die Verteidigung der Axiome ist genug, um die Mathematik (ohne Objekte) objektiv zu machen - aber nur mit dem weiten Begriff von Konsistenz: dass ein System konsistent ist, wenn nicht jeder Satz eine Folge von ihm ist.
II 340
Objektivität/Mengenlehre/Elementbeziehung/Field: Zur Feststellung der bestimmten Extension von "e" und "Menge" brauchen wir auch die physikalischen Anwendungen - auch für "Finitheit".
III 79
Willkür/willkürlich/Skalentypen/Skalarfeld/Massendichte/Field: Massendichte ist ein ganz spezielles Skalarfeld, das wegen seiner logarithmischen Struktur "weniger willkürlich" ist als die Skale für das Gravitationspotential. >Objektivität, >Logarithmus.
Logarithmische Strukturen sind weniger willkürlich - Die Massendichte braucht mehr Grundbegriffe als andere Skalarfelder - Skalarfeld: Bsp Höhe.
>Feldtheorie.

Field I
H. Field
Realism, Mathematics and Modality Oxford New York 1989

Field II
H. Field
Truth and the Absence of Fact Oxford New York 2001

Field III
H. Field
Science without numbers Princeton New Jersey 1980

Field IV
Hartry Field
"Realism and Relativism", The Journal of Philosophy, 76 (1982), pp. 553-67
In
Theories of Truth, Paul Horwich Aldershot 1994
Ordnung Wiener II 32
Ordnung/Wiener: Je wahrscheinlicher ein Schematyp ist, umso weniger Ordnung enthält er, denn Ordnung ist (…) ein Mangel an Zufälligkeit. >Zufall.
Das übliche Maß des Ordnungsgrades einer aus einer größeren Gruppe ausgewählten Schemagruppe ist der negative Logarithmus der Wahrscheinlichkeit der kleineren Gruppe, wenn wir die Wahrscheinlichkeit der größeren Gruppe gleich eins annehmen.
>Wahrscheinlichkeit.
Der positive Logarithmus der Wahrscheinlichkeit ist das Maß der Unordnung.
>Entropie.

WienerN I
Norbert Wiener
Cybernetics, Second Edition: or the Control and Communication in the Animal and the Machine Cambridge, MA 1965

WienerN II
N. Wiener
Mensch und Menschmaschine Frankfurt/M. 1952
Terminologien Uribe Uribe I 4
Terminologien/Uribe: Def Fisher-Effekt/Uribe: Eine Vielzahl empirischer und theoretischer Studien argumentieren, dass eine vorübergehende positive Störung des Nominalzinses einen vorübergehenden Anstieg des Realzinses verursacht, was wiederum die Gesamtnachfrage und die Inflation (...) herunter drückt (siehe zum Beispiel
I 5
Christiano, Eichenbaum und Evans, 2005)(1). Ebenso ist eine Eigenschaft praktisch aller modernen geldwirtschaftlich untersuchten Modelle, dass ein vorübergehender Anstieg des Nominalzinses langfristig keinen Einfluss auf die Inflation hat. Im Gegensatz dazu, wenn der Anstieg des Nominalzinses dauerhaft ist, muss die Inflation früher oder später um etwa das gleiche Ausmaß steigen, wenn der Realzins, gegeben durch die Differenz zwischen dem Nominalzins und der erwarteten Inflation, nicht langfristig durch nominale Faktoren bestimmt wird (...). Diese eins-zu-eins langfristige Beziehung zwischen Nominalzinsen und Inflation wird als Fisher-Effekt bezeichnet. Def Neo-Fisher Effekt/Uribe: Der Neo-Fisher-Effekt besagt, dass ein permanenter Anstieg des Nominalzinses nicht nur langfristig, sondern auch kurzfristig zu einem Anstieg der Inflation führt.
I 6
Der Fisher-Effekt liefert jedoch keine Prognose, wann die Inflation wahrscheinlich
I 8
den dauerhaften Anstieg des Nominalzinses einholen wird. Sie besagt nur, dass sie dies schließlich tun muss. Empirisches Modell: Das empirische Modell zielt darauf ab, die Dynamik von drei makroökonomischen Indikatoren zu erfassen (...).
1. Der Logarithmus der realen pro Kopf-Leistung: yt
2. Die Inflationsrate: πt, ausgedrückt in Prozent pro Jahr.
3. Der Nominalzins: it, ausgedrückt in Prozent pro Jahr.
[Uribe] geht davon aus, dass yt, πt, und it von vier exogenen Schocks angetrieben werden: einem nicht stationären (oder permanenten) monetären Schock (X m/t), einem stationären (oder vorübergehenden) monetären Schock (z m/t), einem nicht stationären nicht monetären Schock (X n/t) und einem stationären nicht monetären Schock (z n/t).
I 16
[Uribe] schätz[t] das empirische Modell auf Grundlage von vierteljährlichen US-Daten aus dem Zeitraum 1954: Q3 bis 2018: Q2. Der Proxy für yt ist der Logarithmus des realen BIP, saisonbereinigt in Chained Dollars von 2012 abzüglich des Logarithmus der zivilen nicht-institutionellen Bevölkerung ab 16 Jahren. Der Proxy für πt ist die Wachstumsrate des impliziten BIP-Deflators, ausgedrückt in Prozent pro Jahr. Der implizite BIP-Deflator wiederum wird als das Verhältnis von BIP in laufenden Dollar und realem BIP, beide saisonbereinigt, berechnet. Der Proxy dafür ist der monatliche Effektivzinssatz der Federal Funds, der durch Mittelung in Quartalsfrequenz umgerechnet und in Prozent pro Jahr ausgedrückt wird. >Neo-Fischer-Effekt/Uribe.


1. Christiano, Lawrence J., Martin Eichenbaum, and Charles L. Evans, “Nominal Rigidities and the Dynamic Effects of a Shock to Monetary Policy,” Journal of Political Economy 113, 2005, 1-45.


Martín Uribe (2019): The Neo-Fisher Effect: Econometric Evidence from Empirical and Optimizing Models. In: NBER Working Paper No. 25089.

Uribe I
Martin Uribe
The Neo-Fisher Effect: Econometric Evidence from Empirical and Optimizing Models. NBER Working Paper No. 25089 2019
Willkür Field I 24
Identität/Identifikation/Field: In vielen Gebieten gibt es das Problem der durchgängigen Willkür von Identifikationen. In der Mathematik ist dies aber stärker als bei physikalischen Objekten.
I 181
Intensitätsrelationen zwischen Paaren oder Tripeln usw. von Punkten: Vorteil: Das vermeidet eine Zuschreibung von Intensitäten zu Punkten und damit eine willkürliche Wahl einer numerischen Skala für Intensitäten.
III 32
Addition/Multiplikation: Addition ist nicht in Hilberts Geometrie möglich (nur mit willkürlichem Nullpunkt und willkürlicher 1). Lösung: ist die Annahme von Intervallen statt Punkten.

II 310
Nicht-klassische Glaubensgrade/GG/Unbestimmtheit/Field: Bsp dass jede "Entscheidung" über die Mächtigkeit des Kontinuums willkürlich ist, ist ein guter Grund, nicht-klassische Glaubensgrade anzunehmen. Gemäßigt nicht-klassische Logik: dass einige Instanzen des Satzes vom ausgeschlossenen Dritten nicht behauptbar sind.

III 31
Zahl/Punkte/Field: Kein Platonist wird reelle Zahlen mit Punkten auf einer physischen Linie identifizieren. Das wäre zu willkürlich ("welche Linie?"). Was soll der Nullpunkt sein und was soll 1 sein?
III 32 f
Hilbert/Geometrie/Axiome/Field: Multiplikation von Intervallen: sind nicht möglich, weil wir dazu ein willkürliches "Einheitsintervall" brauchten. Lösung: ist der Vergleich von Produkten von Intervallen. Verallgemeinerung/Field: Eine Verallgemeinerung ist dann auf Produkte von Raumzeit-Intervallen mit skalaren Intervallen möglich. ((s) Bsp Temperaturunterschied, Druckunterschied). Field: Daher darf man Raumzeit-Punkte nicht als reelle Zahlen auffassen.
III 48
FieldVsTensoren: sind willkürlich gewählt. Lösung/Field: Gleichzeitigkeit.
III 65
Def gleichaufgeteilte Region/gleichgeteilte/gleichmäßig geteilt/Abstandsgleichheit/Field: (alle Abstände innerhalb der Region gleich: R sei eine Raumzeit-Region deren sämtliche Punkte auf einer einzigen Linie liegen, und dass für jeden Punkt x von R der strikt st-zwischen (raum-zeitlich) zwei Punkten von R liegt, es Punkte y und z von R gibt, sodass a) genau ein Punkt von R strikt st-zwischen y und z ist und dieser ist x und - b) xy P-Cong xz. ((s) Damit vermeidet man jegliche willkürliche (Längen-) Einheiten.) ((s) Aber nicht zwischen Temperatur und Raumeinheiten (welches gemeinsame Maß?)) Field: Wohl aber in gemischten Produkten! Dann: "das gemischte Produkt... ist kleiner als das gemischte Produkt..."
Abstandsgleichheit in jedem Bereich für sich: skalar/raum-zeitlich.
III 79
Willkür/willkürlich/Skalentypen/Skalarfeld/Massendichte/Field: Massendichte ist ein ganz spezielles Skalarfeld, das wegen seiner logarithmischen Struktur "weniger willkürlich" ist als die Skala für das Gravitationspotential. >Objektivität, >Logarithmus).
Logarithmische Strukturen sind weniger willkürlich.
Massendichte: braucht mehr Grundbegriffe als andere Skalarfelder.
Skalarfeld: Bsp Höhe.

Field I
H. Field
Realism, Mathematics and Modality Oxford New York 1989

Field II
H. Field
Truth and the Absence of Fact Oxford New York 2001

Field III
H. Field
Science without numbers Princeton New Jersey 1980

Field IV
Hartry Field
"Realism and Relativism", The Journal of Philosophy, 76 (1982), pp. 553-67
In
Theories of Truth, Paul Horwich Aldershot 1994