Entscheidungstheorie 27.09.2017 Entscheidungstheorie
Erkenntnisziele der Entscheidungstheorie 27.09.2017 Erkenntnisziele der Entscheidungstheorie Definitionen: a) logische Analyse rationalen und intendiert rationalen Verhaltens (normative Theorie und deskriptive Theorie) b) Empirische Analyse intendiert rationalen Verhaltens (deskriptive Theorie)
Entscheidungstheorie Logische Analyse - Rationales Verhalten (normative Theorie) - intendiert rationales Verhalten (Logische Untersuchungen über Abweichungen des intendiert rationalen Verhaltens vom rationalem Verhalten. (Verhaltenstheoretische Ansätze) Empirische Analyse Experimente und Untersuchungen über tatsächliches Verhalten von Entscheidungs- trägern und Auswertung dieser Ergebnisse. Deskriptive Theorie
Modell des Entscheidungsprozesses Objektsystem: Entscheidungsfeld Umweltgesetze Vermittlung subjektiven Situationsbildes Informationen Handlungen Informationssystem Entscheidungslogik Zielsystem Subjektsystem
Definition einer normativen Entscheidungstheorie Analyse von Entscheidungen bei subjektiver Formalrationalität (Rationalitätsbegriff bestimmt die Variationen) a) Unterscheidungskriterium: Entscheidungsinhalte - Formale Rationalität: widerspruchsfreies Zielsystem Zielsystemkonformes Verhalten - Substantielle Rationalität (anerkanntes Ent- scheidungsverhalten in Individuengruppen)
b) Unterscheidungskriterium: Faktische Entscheidungsprämissen - objektive Rationalität: Subjektives Situationsbild entspricht objektiven Umständen - Subjektive Rationalität: subjektives Bild ist Ausgangspunkt der Betrachtungen
Deskriptive Entscheidungstheorie a) Explikative Aufgabe: Definition und Begriffsbildung im betrachteten Bereich b) explanatorische Aufgabe: Erklärung der Entscheidungsergebnisse Elemente explanatorischer Aussagen: 1) Explanadum: Menge beschriebener und empirisch gewonnener Begriffe in dem zu erklärenden Sachverhalt 2) Explanans: a) Gesetz zur Erklärung des Sachverhaltes b) Anfangsbedingungen zur Ermittlung der Gesetzesaussagen im vorliegenden Fall
Beispiel: Erklärung steigender Unternehmensgewinne Explanandum: Aussagen über Begriffe Umsatz, Gewinn, Investitionen u.a.m. Explanans: (statische und) kausale Abhängigkeit zwischen Umsatz, Gewinn, Investition u.a.m. Hierher: Versuch der Erklärung unternehmerischer Entscheidungen mit verhaltenswissenschaftlichen Analysen der kognitiven Prozesse der teilnehmenden Individuen. Stand: Versuch der Lösung der explikativen Aufgabe Geschlossenes Verhaltensmodell der Unternehmung: March, Cyert, Behavioral Theory of the Firm, 1963
Heuristisches Modell: Entscheidungsprozess: MODELL von R.M. Cyert u. J.G. March
Nein Ja Ja Nein
Problemlösungsstufen (betriebliche) 1) Zielbestimmung 2) Suche und Analyse von Alternativen im Hinblick auf die Konsequenzen in Handlungszielbeitragseinheiten 3) Auswahl einer Alternative und Festlegung der Aktionen 4) Sollvorgabe 5) Realisation 6) Soll-Ist-Vergleich
1) 2) Planungsstufen 3) Eigentliche Entscheidung 4) 5) Organisation (funktionale Begriffsversion) 6) Kontrolle
Zugehörige Informationsprozesse Informationsbedarfsermittlung Planungsphasenteilprozesse 1), 2), 3) 1) Problemformulierung 2) Handlungszielbestimmung 3) Alternativenplanung a) Handlungsalternativensuche b) Umweltkonstellationsfestlegung 4) Datenpräzisierungsprozess 5) Planungsrechnung 6) Entscheidung i.e.S. 7) Sollvorgabe Zugehörige Informationsprozesse Informationsbedarfsermittlung Informationszielsetzung Such- und Orientierungsprozesse Informationsprüfungs-, Aufbereitungs- und Abstimmungsprozess, Informationsverarbeitungskalkül-wahl Informationsgewichtung und Informationsbewertung (Kriterium) Informationsweitergabe und Informationsspeicherung
Entscheidungsbeispiel Numerisches Beispiel Einem Taxiunternehmer mit 1 PKW werde sehr günstig ein PKW vom Typ Mercedes 240D angeboten. Dieser Unternehmer überlegt, ob er diesen PKW erwerben soll. Problem: Wird dieser PKW ausgelastet sein, und welche Kosten verursacht diese Vergrößerung? Der Unternehmer steht vor folgenden Alternativen:
a) PKW anschaffen und Tagesbetrieb b) PKW anschaffen und Tag- und Nachtbetrieb (reiner Nachtbetrieb scheide als ungünstiger als Tagesbetrieb aus) c) PKW nicht anschaffen Weiter sei dem Unternehmer bekannt, dass eine Gesetzesvorlage der Revision der Abschreibung für Firmen-PKW u.U. durchgesetzt werde, wodurch seine Tagesauslastung um 30 % erhöht würde.
Es seien ihm folgende Zahlen bekannt: derzeitige durchschnittliche monatliche Aus- lastung (Tagesbetrieb): 5000 km Fixkosten p.a.: € 10.000,-- Variable Kosten je km: € 0,40 Durchschnittlicher Erlös p.a.: € 48.000,--
Würde er den 2. PKW anschaffen, so erhöhen sich seine Fixkosten um € 9 Würde er den 2. PKW anschaffen, so erhöhen sich seine Fixkosten um € 9.000,-- und seine variablen Kosten betragen (Diesel!) € 0,35 je km für diesen PKW. Die Nachtauslastung betrage ca. 40 % der Tagesauslastung. Die variablen Kosten betragen bei einer Nachtschicht € 0,60 je km. Die Fixkosten erhöhen sich bei einer Nachtschicht um € 3.000,--p.a. Die Tagesauslastung entspricht jener des existierenden PKW´s. (Die Erlöse f(x) seien eine lineare Funktion der gefahrenen km. f(x) = 0,8 * x). Ein Nachtbetrieb mit dem bereits vorhandenen PKW ist nicht möglich!
Modellbegriff und Entscheidungsmodelle Modell: Abbildung einer Realität unter Reduktion der Anzahl der einfließenden Größen unter Beibehaltung der Struktur der Realität. also: a) Modell ist realitätsvereinfachend b) Modell soll strukturgleich bzw. strukturähnlich sein. Man bildet aggregierte Größen, die unter spezieller Aufgabenstellung in Beziehung gesetzt werden und ein realitätstreues Verhalten zeigen sollen:
Def. Bamberg/Coenenberg: „Modell ist eine zweckorientierte relationstreue Abbildung der Realität“ Zweckorientierung: Bestimmt Aggregation und Struktur des Modells Bsp: Investitionsmodell (Ziel: Maximierung des Differenzgewinns) Interessierende Größen: Kosten- und ertragswirksame Größen (Cash Flow) ZB wird Umweltverschmutzung durch ein Aggregat im gesetzlich zulässigen Rahmen ausgeklammert!
Unterteilung des Modellbegriffs nach dem Zweck der Modellbildung: a) Beschreibungsmodelle (Zielbeschreibung, Aktionsbeschreibung) b) Erklärungsmodelle bzw. Prognosemodelle (Konsequenzenanalyse; Zweck-Mittel- Analyse) c) Entscheidungsmodelle (Aktionen und Umweltkonstellationen bestimmen die Konsequenzen; Ziele bestimmen über die Konsequenzen die Aktionswahl)
Grundbegriffe der Entscheidungstheorie Entscheidungssubjekt (Individ. Entscheidungen) Entscheidungsträger Entscheidungsgremium: a) einheitliche Präferenzen (Team) b) indiv. abweichende Präferenzen
Grundbegriffe der Entscheidungstheorie Entscheidungsfeld: A x Z A.....Aktionenraum (Menge der Handlungs- alternativen) Z.....Zustandsraum (Menge der Zustände der Umwelt, die die Konsequenzen der Aktionen beeinflussen, vom Entschei- dungträger selbst jedoch unabhängig sind!)
Grundbegriffe der Entscheidungstheorie Mögliche Mächtigkeit von A und Z: endlich (rechenbar, „kaum“ rechenbar) abzählbar unendlich überabzählbar unendlich Aufstellungsprinzip für A: Prinzip der vollkommenen Alternativenstellung
Information und Zustand Informationssystem: Menge von Nachrichten yj (j=1,2,...,k) über mögliche Zustände zi Z (i= 1, 2, ...,n) und eine Struktur. Struktur eines Informationssystems: Wahrscheinlichkeiten wij (w (yj | zi); ( wij = 1)) k j
Überführung: w (yj | zi) in w (zj | yi) Bayes´sches Theorem Bsp: Eine Sendung von 3 Stk eines Gutes sei angekommen. Es soll beurteilt werden, ob die Sendung zurückzuweisen ist. Informationssystem: Zufallsstichprobe von Umfang 1
Mögliche Zustände der Umwelt: z0 = 0 Stück fehlerhaft z1 = 1 Stück fehlerhaft z2 = 2 Stück fehlerhaft z3 = 3 Stück fehlerhaft Menge der Nachrichten des Informationssystems: l1 „Ziehen einer Zufallsstichprobe von Umfang 1“: yj = Nachricht: „j Stück fehlerhaft“ (j = 0,1) Struktur des Informationssystems durch wij = w (yj | zi)
gegeben: w (yj | zi) = i 3-i j 1-j 3 1
Rückschluss auf w(zi) mittels Bayes´schen Theorems: a) Struktur des Bayes´schen Theorems 1) yj (j = 1, 2, ...,k) sind disjunkte Ereignisse 2) w (yj | zi) ist bekannt 3) A-priori-Wahrscheinlichkeiten w(zi) (i= 1, 2, .....,n) sind bekannt oder ermittelbar (subjektiv)
W(yj|zi) w (zi) W(AB) W(B) Wegen W(A|B) = gilt: W (yj|zi) W (zi) = W (yj zi) also wegen: W(yj | zi) = 1 und disjunkten zi gilt: {i} W (yj) = W (yj | zi) W (zi) Also gilt: Bayes´sches Theorem: W (zi|yj) = ƒ(z|y) = W(yj|zi) w (zi) W(yj | zi) W(zi) {i} ƒ(y|z) ƒ(z) ƒ(y|z) ƒ(z) {z}
Darstellung eines Informationssystems: (wij= w(yj | zi))
1) Vollkommenes Informationssystem
2) Unvollkommenes Informationssystem a) k < n und w (yj | zi) = 1 oder 0 (partielle oder vollkommene Ungewissheit Sonderfall: Vollkommene Ungewissheit y1 z1 1 z2 1 . . zn 1
b) k < n , k = n oder k > n und w (yj | zi) [0,1] Bsp (k = n) Risiko-situation ( = 1)
Entscheidungsmatrix Die Ermittlung der Entscheidungsmatrix besteht in der Ermittlung der Funktionswerte x der Abbildung φ: φ : A x Z X A = Aktionsmenge Z= Menge der Zustände X = Menge der Handlungskonsequenzen (φ kann ein- oder mehrdeutig sein)
Darstellung eines Informationssystems:
a) φ ist eindeutig Für jedes Paar (ai, zj) gibt es genau ein xij X Bsp: Z sei der Anteil der fehlerhaften „Buchungen“ in der Prüfung der Buchführung einer AG A bestehe in der Erteilung (a1), der Verweigerung (a2) oder der eingeschränkten Erteilung (a3) des Bestätigungsvermerkes bei der Pflichtprüfung.
b) φ ist mehrdeutig Risiko: Aktion: Werbepolitische Maßnahme Konsequenz: Umsatzveränderungen Zustände nur vereinfacht erfassbar, daher stochastische Beschreibung bei reduzierter Zustandsmenge Ungewissheit: Aktion: Errichtung eines Kernkraftwerkes Konsequenz: Umweltveränderungen hierdurch Stochastische bzw. unbekannte Zusammen- hänge der Aktionen mit den Zuständen der Umwelt.
Entscheidungssituationen
Zielsetzung des Entscheidungsproblems: Wahl der „besten“ Handlungsalternative Beispiel: Entscheidung unter Sicherheit Konsequenzen
Erforderlich daher: a) Präferenzen auf der Menge der Konsequenzen derart, dass ein ordinaler Nutzenindex ableitbar ist; (bis auf streng monotone Transformationen invariant). b) Da u.a. Unsicherheit bei Entscheidungen eingeht, muss es möglich sein, „Erwartungswerte“ zu bilden; daher: Forderung nach der Existenz einer Nutzen-funktion, die „erwartungstreu“ und bis auf positive lineare Transformationen eindeutig ist.
Eigenschaften von Relationen (X = {a, b, c, d}) 1. Reflexivität: Es gilt für alle x X : xRx R 2. Irreflexivität: Es gilt für alle x X : aus xRy R folgt x y. Folge: keine Schleifen
3. Symmetrie: Gilt xRy R so gilt yRx R a b c d 4. Asymmetrie: Gilt xRy R so gilt nicht yRx R a b (ist R asymmetrisch, so ist c d R irreflexiv)
5. Antisymmetrie: Gilt xRy R und yRx R, so folgt x=y. Bem 5. Antisymmetrie: Gilt xRy R und yRx R, so folgt x=y. Bem.: wie Asymmetrie, nur Schleifen erlaubt. 6. Transitivität: Gilt xRy R und yRz R so gilt xRz R Bsp: a b c d
7. Intransitivität: Gilt xRy R und yRz R, so gilt nicht xRz R (x y z) Bsp: a b c d 8. Negative Transitivität: Gilt xRy R und yRz R, so gilt auch xRz R Bsp: a b c d
9. Zusammenhang: Für alle x, y X gilt xRy R oder (exklusiv) yRx R oder beides Bsp: 10. Schwacher Zusammenhang Für alle x,y X mit x y gilt xRy R oder (exklusiv) yRx R Bsp:
Schwache Präferenzrelation auf der Menge der Konsequenzen ~ Sprich: für xi, xj X heißt xi xj xi werde xj nicht vorgezogen! Bemerkung: xi xj muss nicht heißen xj ist besser als xi; z.B. wenn man es nicht beurteilen kann Satz: Jede schwache Präferenzrelation auf X induziert eine Indifferenzrelation auf X. Bildung: x~y genau dann, wenn x y und y x. ~ ~ ~ ~
Beispiel: Taxiunternehmen untersucht ein Erweiterungsinvestitionsproblem bei Sicherheit. Es gelte: x1 = Kauf eines Opel-Rekord 2100 D x2 = Kauf eines Mercedes 300 D x3= Kauf eines Alfa Romeo 2000 x4 = Kauf eines Mercedes 240 D x5 = Kauf eines Peugeot 504 D Durch gezielte Befragung sind folgende Präferenzen festgestellt worden (X = {x1, x2, x3, x4, x5}):
x3 x3 x5 x4 x1 x1 x1 x2 x2 x2 x2 x4 x4 x4 x1 x5 x5 x5 x4 x2 x3 x1 x5 x1 x3 x2 x3 x5 x3 x4 x5 x2 x1 x4 ~ ~ a priori Annahme: Reflexivität ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ Ermitteln Sie die Äquivalenz-klassen der induzierten Äqui-valenzrelation! ~ ~ ~
Lösung: x3 x1 x5 x2 x4 Äquivalenzklassen (xi < xj und xj < xi): ~ ~ [x3] ~ = {x3} Quotientenmenge [x1] ~ = {x1, x5} [x2] ~ = {x2, x4}
Äquivalenzrelation Eigenschaften: Reflexiv, symmetrisch, transitiv Bsp: X = {1, 2, ..., 10} Es gelte xRy R wenn x, y X und x sowie y bei Division durch 3 denselben Rest aufweisen. Graphische Form von R
Definition: Definition: Sei ~ eine Äquivalenzrelation in X und es gelte x X, die Teilmenge [x] ~: {xi X und xi ~x} heißt Äquivalenzklasse von x unter der Äquivalenzrelation „~“. Definition: Die Menge X /~ : = {[x]~ | x X } heißt Quotientenmenge von X bezüglich ~. Bemerkung: Zwischen X und X / ~ ist immer eine Abbildung µ definiert: µ: X X /~ mit µ(x) = [x]~
Strenge Präferenzrelation: Eigenschaften: Asymmetrie, Transitivität, negative Transitivität, Trichotomie: für xi, xj X gilt: xi xj, xj xi oder xj ~ xi Satz: Die Relation auf X induziert eine strenge Präferenzrelation Bildung: xi xj genau dann, wenn xi xj und nicht xj xi gilt.
Strikte lineare Ordnung: ´ Eigenschaften: Irreflexiv, asymmetrisch, transitiv, schwach zusammenhängend Bemerkung: Bekanntestes Beispiel einer derartigen Relation ist die Relation < im R1. Satz: Eine schwache Präferenzrelation auf X induziert eine strikte lineare Ordnung in X/~.
Ordinaler Nutzenindex Definition: Sei X eine Menge von Konsequenzen, auf denen eine schwache Präferenzrelation erklärt wird. Sei f eine Abbildung f : X R1 derart, dass für alle xi, xj X für die xi xj gilt, auch f(xi) f(xj) gilt. f ist eine monotone und ordnungsrelationstreue Abbildung von X in der R1 bezüglich und heißt ORDINALER NUTZENINDEX. ~ -
Zum Problem der Konstruktion des ordinalen Nutzenindex (|X| sei endlich) 1) Man bilde die Quotientenmenge X / ~ 2) Finde Abbildung u u: X/~ R1 mit der Eigenschaft: u (qi) < u (q2) genau dann, wenn qi ´qj Für endliche Quotientenmengen: 1) Man zähle X/~ ab: q1, q2, ..., qm. 2) Man sortiere X/~ durch ein bekanntes Verfahren in O(m log2 m) Schritten und erhält: qi1 `qi2 ´... ´qim - - - -
- - X R1 - X/~ - 3) Wir ermitteln u indem wir die Abbildung verwenden: u (qik ) = k Satz: Ein ordinaler Nutzenindex ist nur bis auf streng monotone Transformationen eindeutig. Tatsächlich gilt: - X R1 X/~ - u = u ° - u
Definition: Sei ~ eine Äquivalenzrelation in X und es gelte x X, die Teilmenge [x] ~: {xi X und xi ~x} heißt Äquivalenzrelation der Relation ~. Definition: Die Menge X/~ : = {[x]~ | x X } heißt Quotientenmenge von X bezüglich ~. Bemerkung: Zwischen X und X / ~ ist immer eine Abbildung µ definiert: µ: X X /~ mit µ(x) = [x]~
Definition: Wahrscheinlichkeitsmaß W auf Menge ist eine reelle Funkton, die auf allen Teilmengen von definiert ist, und folgende Eigenschaften aufweist: a) W(A) 0 b) W () = 1 c) W(AB) = W(A) + W(B) wenn AB = 0 d) Es gibt eine endliche Menge H , sodaß W(H) =1
Wir betrachten mit W die Menge der einfachen Wahrscheinlichkeitsmaße Es gelte: H = {w1, w2, w3, ...wh} (gem. Definition) Wir können dann auch schreiben für P W w1 w2 .... wh P = w1 w2 ... wh P kann als eine Lotterie interpretiert werden mit den Ausgängen wi (i= 1, 2, ..., h) h mit wi = 1 i=1
Zusammensetzung von Lotterien Es seien 1, 2, . . ., k reelle Zahlen mit und i 0 (i= 1, 2, ..., k) und Pi {(A)} (i= 1, 2, ..., k) seien einfache Wahrscheinlichkeitsmaße aus W. Dann sei P{(A)} = 1 x Pi {(A)} das Wahrscheinlichkeitsmaß der zusammengesetzten Lotterie. (αi und die Wahrscheinlichkeiten müssen von unabhängigen Mechanismen verursacht werden!) k i=1 i = 1 k i=1
d.h. Pi wird mit Wahrscheinlichkeit 1 geliefert (i = 1, 2, ..., k) Eine Interpretation der Linearkombination der Wahrscheinlichkeitsmaße ist der Begriff der zusammengesetzten Lotterie d.h. Pi wird mit Wahrscheinlichkeit 1 geliefert (i = 1, 2, ..., k) Einbettung der Menge in W: a) wi = für wi gehört zu W b) wir können daher jede Lotterie P W folgendermaßen schreiben: P = p1w1 + p2w2 + ... + pkwk Bemerkung: Es gelte = {wi = |wi } Offenbar gilt: = * W wi 1 wi 1 ~
Unter den Voraussetzungen des N-M-Axiomensystems kann man eine Nutzenfunktion u: W R1 konstruieren, die effizienter verwendbar ist als ein ordinaler Nutzenindex!
V.Neumann - Morgenstern AXIOMENSYSTEM von V.Neumann - Morgenstern N1. Auf der Menge der Lotterien W existiert eine schwache Präferenzrelation „ „, es sei „„ die zur Relation „ „ gehörige strikte Präferenz. N2. Es seien P, Q, R Lotterien und 0 < <1, dann gilt P Q P + (1- )R Q + (1- )R N3. P,Q,R seien Lotterien und PQR, dann gibt es Zahlen , mit 0 < < 1 und 0 < < 1 , so daß gilt: P + (1- )R Q P + (1- ) R. ~ ~
A) Ordnungstreue (Monotonie): P Q U(P) U(Q) B) Linearität: Erwartungsnutzen Definition: Eine Funktion U:W R1 heißt Erwartungsnutzen, wenn sie folgende Eigenschaften erfüllt: A) Ordnungstreue (Monotonie): P Q U(P) U(Q) B) Linearität: U(1P1+ 2P2+...+ KPK) = 1U(P1) + 2U(P2)+...+ KU(PK) C) Eindeutigkeit bis auf positiv-lineare Transformationen: seien u,v zwei Funktionen, welche A) und B) erfüllen, dann gilt: U(P) = AV (P) + B mit A >0
Hauptsatz der kardinalen Nutzentheorie Auf einer Menge von Lotterien W, welche 1. die Axiome von v.Neumann - Morgenstern erfüllen und 2. in der es mindestens ein paar P, Q mit P Q gibt existiert ein Erwartungsnutzen: Beweisidee: Setze u (P) = 0 und u (Q) = 1 A) Für PRQ kann man aus Axiomen folgern: Es gibt ein eindeutiges ( (0,1)), so dass R~ P+(1-)Q gilt. Hieraus: u(R) = 1- (R heißt Sicherheitsäquivalent von P+(1- )Q analog: RPQ und PQR
X ist meist eine Menge von monetären Konsequenzen (homogenes Gut). Bernoulli-Prinzip: X ist meist eine Menge von monetären Konsequenzen (homogenes Gut). uo: R1R1 mit uo (x) = u([ ]) (oft einfach u(x)) Ergebnis des Hauptsatzes: u(P) = E(u(x)) für P W Beispiel: x1 x2 P = p 1-p Zwei Zufallsvariable: u(x) (Nutzen u(xi) mit Wahrscheinl. pi) x (Geldbetrag xi mit Wahrscheinl. pi) Nach Hauptsatz gilt: u(P) = p u(x1) + (1-p) u(x2) (=E(u(x))) Meist gilt zudem u(P) E(x) außer wenn u(x) linear. x 1
Nutzenfunktion: Problem des Sicherheitsäquivalents: Finde einen Wert ξ derart, dass z.B. (Zweipunktverteilung) gilt: u(ξ) = u(P) = p(u(x1)) + (1-p)u(x2) (P W)
Bsp: konvexe Nutzenfunktion (Risikofreudigkeit) u(x) = x²/10 : Fixpunkte u(x)= x : x = 0 x = 10 u(x2) ½ u(x2)-u(x1) Also: ξ > E(x) ξ = 15,8113.... ½ u(x1) x 5 10=x1 15=E(X) 20=x2
Experimentelle Ermittlung von ξ: Man ermittle ξ, so daß A1 ~ A2; d.h. ξ ξ ~ x1 x2 p 1-p p 1-p ,also U{ξ} = p u(ξ) + (1-p) u(ξ) = p u (x1) + (1-p) u(x2) also 10 20 =P u(ξ) = E (u(X)) ½ ½
Bsp.: p= 0,5; Bekannte Nutzenfunktion: E(x) = 10 * 0,5 + 20 * 0,5 = 15 P = E(U(x)) = 40 * 0,5 + 10 * 0,5 = 25 = u(ξ) ξ = 25 x 10 15,8 (=u-1(u(ξ))) E(U(X)) = 25 ξ > E(X) Risikofreude (U-1(U(E(X)))) = E(X) ξ > E(X) Risikofreude ξ < E(X) Risikoaversion
u(x2)-u(x1) Also: ξ < E(x) Risikoaversion (u (x) ist konkav) u (x2) 1-p p u(x2)-u(x1) Also: ξ < E(x) u (x1) x1 ξ E(x) x2
Nutzenkurve nach Friedmann & Savage (The Utility Analysis Of Choices And Risks; Journal Of Political Economy, pp. 279-304, 1948 Erklärt z. B. Glücksspiel-teilnahme Erforderlich aus St. Petersburg Paradoxon Erklärt z. B. warum bei beliebiger Gewinnerhöhung bei Glücksspielen die Teilnehmerzahl nicht beliebig erhöht werden kann! Erklärt z. B. Ab-schlüsse von Ver-sicherungsverträgen
(Krelle)
Beispiele aus der Nutzentheorie 1) Wir betrachten 2 Lotterien: R= S= Welche Präferenzen haben Sie? Zu komplex? Wenn ja: 1) Anerkennen Sie Axiome 1-3; wenn ja: 2) Können Sie Ihre Präferenzen für folgende 2 Lotterien angeben: P= Q= 10 600 1000 0,02 0,32 0,66 500 600 1000 0,1 0,42 0,48 10 1000 0,1 0,9 500 600 0,5 0,5
Wenn ja, so kann man mittels Vermöge der Zusammensetzung R = 0,2 P + 0,8 T S = 0,2 Q + 0,8 T und Axiom 2 die Präferenz für R und S ableiten! 600 1000 0,4 0,6
Gegeben: 2 Paare von Lotterien (Angaben in Mio.€) a) b) P= R= Q= S= Beispiel aus der Nutzentheorie zur Aufdeckung von Inkonsistenzen aus F.Ferschl, Nutzen- und Entscheidungstheorie, Opladen) Gegeben: 2 Paare von Lotterien (Angaben in Mio.€) a) b) P= R= Q= S= Häufig wird nun folgende Präferenz bekanntgegeben: (A) P Q und (B) S R Man kann zeigen, dass es keine Nutzenfunktion u gibt, die dieses Verhalten erklären kann: 0 5 25 0,01 0,9 0,09 0 25 0,91 0,09 5 1 0 5 0,9 0,1
Zu A) u(P) = 0,01 u(0) + 0,9 u(5) + 0,09 u(25) u(Q) = u(5) aus P Q folgt u(P) < u(Q) oder 0,01 u(0) + 0,09 u(25) 0,1 u(5) Zu B) 0,91 u(0) + 0,09 u(25) = u(R) 0,9 u(0) + 0,1 u(5) = u(S) also wegen S R folgt: 0,1 u(5) 0,09 u(25) + 0,01 u(0) |Widerspruch
Grund des Widerspruchs: Axiom 2 T= V= ; es gilt P= 0,1 T + 0,9 Q Q= 0,1 Q + 0,9 Q 1) gilt P Q folgt (Axiom 2) T Q Es gilt aber: R= 0,1 T + 0,9 V S = 0,1 Q + 0,9 V 2) Aus T Q folgt (Axiom 2) R S 3) Widerspruch zur Aussage der Versuchsperson! 0 25 0,1 0,9 1
Gegeben seien 2 Paare von Lotterien: a) P= b) R= a) Q= b) S= Es werde von einem Entscheidungsträger folgende Präferenz bekanntgegeben: P Q und S R Untersuchen Sie mit Hilfe der Zusammensetzungen P= 0,1 T + 0,9 Q, R= 0,1 T + 0,9 V und S = 0,1 Q + 0,9 V wobei gelte: T= , V= diese Angaben auf die Möglichkeit einer Ableitung eines Erwartungsnutzens ausgehend von dem Neumann-Morgenstern´schen Axiomensystem. 0 5 0,91 0,09 0 1 5 0,01 0,9 0,09 0 1 0,9 0,1 1 0 5 0,1 0,9 1
Risikoaversion und Risikoaversionsmasse Kard. Nutzenfunktion ist unter gewissen rationalen Voraussetzungen aus Präferenzrelation bildbar. Bsp.: a b 1- Wahrscheinlichkeit Risikoprämie: Maximum an Wohlstand, den ein Individuum aufgeben würde, um Risiko zu vermeiden.
Markowitz´sche Prämie: E(W) - ξ (von W abhängig) Bsp.: Es gelten U(W) = ln (W) (logarithm. Nutzenfunktion) 5 30 a b Lotterie: = 0,8 0,2 0,8 0,2 0,8 0,2 U (E (W)) = ln 0,8 5 + ln 0,2 30 = 2,3 E (U (W)) = 0,8 ln 5 + 0,2 ln 30 = 1,97 Markowitz‘sche Risikoprämie: 10 - 7,17 = 2,83 = E (W) - ξ p = 0,8 und 1 - p = 0,2
Wir nehmen nun an, dass die Individuen risikoavers sind. Das Markowits´sche Risikoaversionsmaß ist die Risikoprämie U-1(U (E(W))) - U-1(E(U(W))) = E (w) - ξ Dieses Maß ist jedoch von der Höhe von W und der Verteilung abhängig.
Pratt - Arrow´sches Risikoaversionsmaß sei eine Zufallsvariable mit E() = 0 Ausgangspunkt: Was ist die Risikoprämie p (W, ) für das Spiel, bei dem das Individuum W + ( zufällig) erhält? Es gilt für die Risikoprämie p, dass folgende Gleichung erfüllt wird: E(U(W+ ) = U(W+E()- p(W, ))
Taylor Reihe: f(x) = f(a) + f´(a) (x-a) + f´´(a) + .... + f(n) (a) +.. Beide Seiten Taylor approximiert: Links: E(U(W+)) = E(U(W) + U´(W) + ½ 2 U´´ (W) und Ausdrücke von O(3) = U(W) + ½ 2 U´´ (W) + ... (x-a)2 2! (x-a)n n!
U(W + E() - π (W,Z)) = U(W- π ) = Recht: U(W + E() - π (W,Z)) = U(W- π ) = U(W) - π U´(W) + Ausdrücke kleinerer Ordnung Also: U(W) - π U´(W) = U(W) + 1/2 ² U´´(W) nach π aufgelöst: π = ½ ² = - ARA nach Pratt/Arrow U´´(W) U´(W) U´´(W) U´(W) - Z immer positiv (Skalenveränderung)
ARA ist das absolute Risikoavesionsmaß, da es von der Höhe von W abhängig ist. Wir wollen daher noch ein von der Höhe von W unabhängiges Risikoaversionsmaß RRA: RRA: - W U´´(W) U´ (W)
Empirische Untersuchung zur Risikoaversion Beispiel: Häufig verwendete Nutzenfunktion: quadratische Nutzenfunktion Für W < a/2b gilt: U (W) = aW - bW2 Es gilt: U'(W) = a - 2bW U''(W) = -2b
Also ARA = > 0 2b d(ARA) a-2bW dW RRA = > 0 2b d(RRA) (a/W)-2b dW ergo: nicht konstant!
-2W-3 Konstantes RRA wird erfüllt durch: ARA = - = < 0 U(W) = W-1; U´(W) = W-2 > 0; U´´(W) = -2W-3 < 0 ARA = - = < 0 RRA = W = 2 = 0 Diese Funktion stimmt mit empirischen Ergebnissen von Friend + Blum, The demand for Risky Assets, Am. Ec.Re., 1975 p. 900-922 überein. -2W-3 W-2 2 W d(ARA) dW 2 W d(RRA) dW
Stochastische Dominanz Bsp: Umweltkonstellationen seien geordnet nach dem Nutzen und es gelte Z~R1 (bzw. geordnet nach Geldeinheiten). Es gelte nun für eine Aktion x und y milden Wahrscheinlichkeitsverteilungen F und G: (1) Fx (W) Gy (W) für alle W (W=„Wohlstand“) und (2) Fx (Wi) < Gy (Wi) für mindestens einige W;
Beispiel:
Definition: Sind die Bedingungen (1) und (2) erfüllt für zwei Alternativen (Aktionen) x und y, so spricht man von stochastischer Dominanz 1. Ordnung von Fx über Gy oder einfach von x über y-für nicht abnehmende Nutzenfunktionen! Bemerkung: Offenbar ist das Gegenteil wahr für alle abnehmenden Nutzenfunktionen, d.h. y dominiert x.
Stochastische Dominanz 2. Ordnung Voraussetzung: a) Nutzenfunktion ist nicht abnehmend b) Nutzenfunktion ist streng konkav (d.h. im abnehmenden Maße zunehmend!)
Beispiel solcher Nutzenfunktion: Bemerkung: D.h. wir setzen Risikoaversion voraus.
(Gy(W) - Fx(W)) dW > 0 für alle W, Definition: Eine Alternative (Aktion) x heiße stochastisch dominant 2er Ordnung über Alternative y, wenn für alle risikoaversen Entscheider gilt: (Gy(W) - Fx(W)) dW > 0 für alle W, und Gy(Wi) Fx (Wi) für einige Wi Wi -
Beispiel: f (G(w) - F(w)) d W Differenz ux = uy
Bemerkung: Die Aussage bezieht sich also auf die Fläche unter der kumulativen Verteilungsfunktion! Entspricht der Intuition: Varianz wird berücksichtigt = Risiko Bemerkung zum Beispiel: Bei der linearen Nutzenfunktion wären die Alternativen x und y bei (Rumpf-) Normalverteilung äquivalent! Stochastische Dominanz kann also für alle risikoaversen Entscheider verwendet werden um Alternativen zu eliminieren!
Mittelwert und Varianz als Auswahlkriterien Gehen wir von einer zweiparametrigen Klasse von Wahrscheinlichkeitsverteilungen aus und betrachten hiervon nur die Normalverteilung! Man kann dann zeigen, dass (μ,σ) als Kriterium für Dominanz genügt. Beispiel: μ σ
Man kann auch zeigen, dass diese Möglichkeit für andere 2- parametrige Verteilungen nicht vorausgesetzt werden kann ((μ,σ)- Paradoxon). (Im übrigen Schneeweiß H., Entscheidungskriterien bei Risiko, Springer Verlag)
Entscheidungen unter Sicherheit A) Modelle mit einer Zielsetzung: Ziel: Nutzenmaximierung Tatsächlich: Vereinfachte Realsituation z a1 u1 a2 u2 . . an un
B) Modelle mit mehreren Zielsetzungen:. Ziele. k1. k2. kv Aktionen a1 B) Modelle mit mehreren Zielsetzungen: Ziele k1 k2 .... kv Aktionen a1 u11 u12 .... u1v - Konsequenzenteilnutzen a2 u21 u22 .... u2v . . . .... . . . . .... . . . . .... . am um1 um2 umv Probleme: Nutzenunabhängikeit der Teilnutzen Zieltypologisierung nach Zielverhalten: α) Indifferente Ziele β) Komplementäre Ziele γ) Konkurrierende Ziele
Auswahlschritte: α) Elimination ineffizienter Aktionen β) Auswahl aus den effizienten Aktionen Definition der Effizienz: Eine Aktion heißt effizient, wenn es α) keine Aktion aq A gibt, mit uqp > uip für alle p = 1, 2, ..., v und β) uqp > uip für mindestens ein p {1, 2, ..., v} gilt.
Beispiel:. Ziele. k1. k2. k3 Aktionen a1. 3. 7. 2 Beispiel: Ziele k1 k2 k3 Aktionen a1 3 7 2 Nicht dominierte Aktionen a2 1 6 8 (effizient) a3 9 2 6 z. B. a4 dominiert a1. a4 5 8 3 a5 3 6 3 Dies gilt ebenso für mehrere Umweltsituationen! (Allgemein und schwächer als die stochastische Dominanz!)
Beispiele zu Verknüpfungsregeln der Teilnutzen bei Entscheidung bei mehrfacher Zielsetzung A) Zielgewichtung: Bewertung Φ (ai) = Σ qi uij 1. Beispiel: k1 k2 k3 Φ (ai) a1 3 7 2 3,1 a2 5 8 3 4,2 a3 3 6 4 4,3 k1 : k2 : k3 = 1 : 2 : 7 Gewichte: 0,1; 0,2; 0,7
B) Zielunterdrückung Spezialfall der Zielgewichtung; Gewichtungsvektor = 0,0, ... 0,1, 0,... z. B. nach schlechten Jahren: Gewinnmaximierung.
C) Aktionenauswahl nach lexikographischer Ordnung Voraussetzung: Schwache Präferenzordnung auf den Zielen (Ziele in gleichen Restklassen werden zusammengelegt); Folge: strenge lineare Ordnung auf den Restklassen: ki1 > ki2 > ... > kiv; nach sortieren (stabil) Auswahl Bsp.: k2 > k1 > k3 Bewertung: k1 k2 k3 a1 3 1 4 2 2 3 a2 a2 2 2 3 sortieren 3 1 1 a1 a3 3 1 2 3 1 2 a3 a4 2 1 4 2 1 4 a4 Präferenz(-annahme): a2 > a1 > a3 > a4
D) Maximierung des minimalen Zielerreichungsgrades N D) Maximierung des minimalen Zielerreichungsgrades N. Körth Bewertung: Φ(ai) = min (maxuipuhp) {p} {h} Beispiel: k1 k2 k3 uip Min.d. max uhp Zeile a1 3 7 2 3/9 7/8 2/8 2/8 a2 1 6 8+ 1/9 6/8 1 1/9 a3 9+ 2 6 1 2/8 6/8 2/8 a4 5 8+ 3 5/9 1 3/8 3/8+ Opt. Alternative Grad: 0,375 a5 3 6 4 3/9 6/8 1/2 3/9
E) Goal-Programming-Ansatz (Charnes, Cooper) Gesamtziel: E) Goal-Programming-Ansatz (Charnes, Cooper) Gesamtziel: Minimierung der absoluten Abweichungen von den gesetzten Zielen! Bewertungsfunktion: Φ(ai) = Σ |uip - ûp| p ûp = für Ziel kp gesetztes Niveau
Beispiel:. k1 k2 k3. I) Zielvorgabe:. k1 k2 k3 Φ a1. 3 7 2. û1 = 3 Beispiel: k1 k2 k3 I) Zielvorgabe: k1 k2 k3 Φ a1 3 7 2 û1 = 3 0 2 2 4 Gleich a2 1 6 8 û2 = 5 2 1 4 7 gewichtet: a3 9 2 6 û3 = 4 6 3 2 11 Abweichung a4 5 8 3 2 3 1 6 + (uip-ûp) a5 3 6 4 0 1 0 1 II) Zielvorgabe: k1 k2 k3 Φ û1 = 9 6 1 6 13 (Spezialfall: û2 = 8 8 2 0 10 Zielgewichtung) û3 = 8 0 6 2 8 4 0 5 9 6 2 4 12 Zielplus - Zielminus gleiches Gewicht! (Vgl. Bamberg, Coenenberg, Betriebswirtschaftliche Entscheidungslehre, Vahlen.)
Beispiel mit überabzählbaren Aktionenmengen (Problem: Bamberg, Coenenberg, Entscheidungslehre, S. 53) Produktionsbeschränkungsgleichungen bei Erzeugung zweier Produkte: x + 3y < 160 y < 40 x < 100 x,y > 0 Gewicht Fall 1) û1 = Gewinnmaximierungsniveau = 800 0,4 Zielfunktion: u1 (x,y) = 7x + 5y û2 = Umsatzmaximierungsniveau = 2400 0,6 Zielfunktion: u2 (x,y) = 11x + 49y Summe der gewichteten Abweichungen ist zu minimieren: Zielfunktion: 0,4 (α1+ + α1-) + 0,6(α2+ + α2-) Min.
Zusätzliche Gleichungen: 7x + 5y - α1+ + α1- = 800 Zusätzliche Gleichungen: 7x + 5y - α1+ + α1- = 800 (= erzielbares Gewinnmaximum) 11x + 49y - α2+ + α2- = 2400 (Ziel: Umsatzniveau) Ergebnis: α1- = 8,1633 x = 100 y = 18,367 Freikapazität y = 21,633 Lösung des Beispiels nach Körth-Ansatz (Vgl. Bamberg/Coenenberg, Loc. Cit., S. 53) x = 85 Gewinn: 720 y = 25 Umsatz: 2160 Zielerreichungsrad: 0,9
Körth-Ansatz Optimale Lösungen Gewinnmax. Umsatzmax. x1+ = 100 Körth-Ansatz Optimale Lösungen Gewinnmax. Umsatzmax. x1+ = 100 x2+ = 40 y1+ = 20 y2+ = 40 u1 (x1+, y1+) = 800 u2 (x2+, y2+) = 2400 u2 (x1+, y1+) = 2080 u2 (x2+, y2+) = 480 Wir wollen möglichst viele Prozente vom Gewinnmax. (=800) und Umsatzmax. (=2400) erzielen!
Also: w Max 7x + 5y > 800 w. Körth - Tafel: 11x + 49y > 2400 w Also: w Max 7x + 5y > 800 w Körth - Tafel: 11x + 49y > 2400 w Gewinnmax. Umsatzmax. x + 3y < 160 . . . y < 40 . . . x,y > 0 . 800 = Max. . 2 2 1 . . . . 2400 = Max. Lösung: . . . . . . x+ = 85 Gesucht: Zeile des max. Minimums y+ = 25 in Anteilen. u1 (x+, y+) = 720 Gefunden = 0,9 ! u2 (x+, y+) = 2160 w = 0,9
B) Zielunterdrückung Wir wählen bei r Zielen einen speziellen Gewichtungsvektor (0, 0, ...0, 1, 0,...0) und entscheiden nach diesem Ziel. Beispiel: Nach ertragsschlechten Jahren: Gewinnmaximierung In obigem Beispiel: Ziel 1 a3 Ziel 2 a4 Ziel 3 a2
C) Auswahl nach lexikographischer Ordnung Die Ziele werden nach der Priorität der Zeitscheidenden in eine Ordnung gebracht: ki1 > ki2 > ki3 ... > kip und die Aktionen nach den Zielen kip, kip-1, ..., ki1 in dieser Reihenfolge sortiert (stabiles Sortieren!) Beispiel: k1 k2 k3 a1 3 1 4 a2 2 2 3 a3 3 1 2 a4 2 1 4 Es gelte: k2 > k1 > k3 I) 3 1 4 II) 3 1 4 III) 2 2 3 a2 2 1 4 3 1 2 3 1 4 a1 2 2 3 2 1 4 3 1 2 a3 3 1 2 2 2 3 2 1 4 a4
D) Maximierung des minimalen Zielerreichungsgrades nach Körth uip Φ (ai) = min ( ) max uhp {p} {h} Ziele k1 k2 k3 Min. d. Aktionen Zeile a1 3 7 2 3/8 7/8 2/8 2/8 a2 1 6 8* 1/9 6/8 1 1/9 a3 9* 2 6 1 2/8 6/8 2/8 a4 5 8* 3 5/9 1 3/8 3/8* a5 3 6 4 3/9 6/8 1/2 2/9 Opt. Alternative! W = 0,375 uip max uhp {h}
Gewichtungs-Beispiel: Ermitteln Sie den optimalen Preis zur Realisierung der Ziele: Gewinnmaximierung : Gewicht : 3 0,6 Umsatzmaximierung : Gewicht : 2 0,4 Preisabsatzfunktion: x(p) = 60 - p Kostenfunktion: 120 + 15x p = 37,5 Gewinnmax: p (x(p)) - k max Umsatzmax: p . x (p) max p = 30 Lösung: 0,6 (75p - p2 - 120) + 0,4 (60p - p2) u = 575,25 P opt = 34,5
Gewichtungs-Beispiel: 3 Produktunternehmen Aktion: Wahl eines Produktionsplanes: (x, y, z) Deckungsbeiträge: Produkt A: 10 Mögl. Absatz: 100 Produkt B: 12 Mögl. Absatz: 80 Produkt C: 8 Mögl. Absatz: 90
Es werden 3 selbst hergestellte Vorprodukte benötigt, die beschränkt sind: VP 1 2 3 PR Vorproduktionskapazitätsgrenzen A 5 8 3 1 2 3 B 9 8 1 C 7 8 2 780 900 600 Ziele: 1) Gewinnmaximierung: u1 (x, y, z) = 10x + 12y + 8z 2) Umsatzmaximierung A: u2 (x, y, z) = x Gewichtung: Gewinn von 1,5 € ~ Absatz von 1 Stück A. Ermitteln Sie den optimalen Produktionsplan.
Lösung: Zielfunktion: 0,4 (10x + 12y + 8z) + 0,6x x < 100 5x + 9y + 7z < 780 y < 80 8x + 8y + 8z < 900 z < 90 3x + y + z < 600 x, y, z > 0 Resultat: Zielfunktion: 528,38 x : 58,185 y: 56,325 z: 371,25
Ablauf einer Nutzwertanalyse bei der Anlagenauswahl Ableitung der Zielhierarchie: . . . . . . . . . . Hauptgruppen . . . . . . . . . . . Untergruppen . . . . . . . . . . . . . . . . . . .
Tabelle der qualitativ be-werteten oder beschriebenen Konsequenzen der Alternativen je Zielkriterium Bewertung der Kriterien mit Gewichten {gi / i = 1, 2, ... n} und der Konsequenzen mit dem Nutzen innerhalb des Zielkriteriums
Tabellen von entscheidungsträger-bezogenen einzelkriterien-verwerteten Alternativenbewertungen Aggregation von mehreren Präferenzordnungen auf eine gemeinsame Präferenzordnung durch eine Entscheidungsregel Nutzwert-Tabelle der Alternativen
Die Vorgehensweise bei Nutzwertmodellen besteht aus folgenden Stufen: 1. Bestimmung der situationsrelevanten Ziele, bzw. Zielkriterien 2. Beschreibung der zielrelevanten Konsequenzen 3. Bewertung der Konsequenzen mit dem eindimensionalen Nutzen, d.h. Ermittlung des Konsequenzennutzens und Gewichtung der Zielkriterien. 4. Eventuelle Aggregation der Teilnutzen zu einem Gesamtnutzen bzw. zu einer Einzelbewertung der Alternativen. 5. Vergleich der Alternativen und Ermittlung der optimalen Alternative.
Die wesentlichen Probleme der Nutzwertanalyse liegen in - der Auffindung der relevanten Zielkriterien, - der Bewertung der Kriterien mit den Gewichten und - der Wahl einer geeigneten Regel zur Aggregation der einzelnen Präferenzordnungen. Die Festlegung der Aggregationsregel und der Kriteriengewichte muss vor der Bewertung der in Frage kommenden Alternativen erfolgen.
Qualitative and Quantitative Comparison of two database systems A and B 0 = Not available 1 = very poor, or very difficult 2 = poor or difficult 3 = average, acceptable 4 = good or easy 5 = very good or very easy
2. Other criteria in order of importance
Betriebswirtschaftliche Entscheidungsmodelle unter Gewissheit Finanzmathematische Modelle der Investitionsrechnung Lineare und nicht-lineare Programmierungs- modelle Ganzzahlige Optimierung Dynamische Optimierung Lagerhaltung Netzplantechnik u.a.m. Entscheidungsmatrix z a1 u1 Entscheidungs- a2 u2 aufgabe: . . finde max. ui . . {i} an un (und wähle ai)
Bemerkung: A) Sind meist bei realen Problemen nur mehr mit Computer durchführbar. B) Obwohl in den meisten Fällen Algorithmen existieren, die in endlicher Zeit eine optimale Lösung finden, finden manche dieser Algorithmen eine Lösung in „vernünftiger“ Zeit. C) Vor Einsatz eines Algorithmus ist der Berechnungsaufwand festzustellen. Meist gibt es mehrere Algorithmen zur Lösung der Auswahlaufgabe, deren Berechnungsaufwand von der „Datenaugenblicklichkeit“ des tatsächlichen Berechnungsproblems abhängt.
Einführungsbeispiel: Aufgabe: Sortiere eine endliche Menge von Aktionen nach ihrem Nutzen. Lösung: Es gibt viele Algorithmen zur Lösung. Einer hiervon lautet (U (I) ist eine Tabelle mit m Schlüsseleinträgen): Abschnitt Algorithmus A DO J = 2 TO m BY 1; I J - 1; Searchkey: = U (J); B DO WHILE ((Searchkey < U (I) Λ (I > 0)); C U (I + 1) U (I); I I - 1; D END; U (I + 1) Searchkey; END;
Algorithmusindividuelle Datenaugen- Jede Anordnungs- ungünstigste günstigste augenblick- permutation ist Anordnungs- Anordnungs lichkeiten gleich wahrschein- Permutation Permutation lich Abschnitte A m - 1 m - 1 m - 1 m2 - m m2 - m B ~ + m-1~0(m2) ~ ~ 0(m2) m - 1 4 2 m2 - m m2 - m C ~ ~ 0 D m - 1 m - 1 m - 1
„Random-Access-Machine“-Modell (RAM Modell) (1-Akk. ohne Befehlsmodifikation!) x1 x2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xn Eingabe Pro- r0 (Akkumulator) Befehls- gramm r1 register r2 Speicher y1 y2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ausgabe
Operationen: Zeitbedarf der Operationen ca. LOAD 10 STORE 10 ADD Operandenadresse 15 SUB (implizierter 2. 15 MULT Operand: Inhalt 30 DIV des Akkumulators) 80 READ lesen (1 Bandfeld ) WRITE schreiben JUMP 15 JGTZERO Befehlsadresse 25 JZERO 25 HALT - (physisches Ende)
Programm im RAM-Code K2 DC 2 KM DC „M“ (wird zu Beginn geladen) K-1 DC 1 U(1) DC - U(2) DC - . . . zu sortierender Bereich . . . U(M) DC - J DC 0 Speicherreservierung I DC 0 für Arbeitsvariable SK DC 0 Speicherbedarf des Algorithmus
Fortran-Programm Subroutine B (U, M) Integer U (1), SK DO 6 J = 2,M A I = J - 1 SK = U (J) 1 IF (SK - U (I)) 2, 5, 5 B 2 U (I+1) = U (I) I = I - 1 C IF (I) 6, 5, 1 5 U (I + 1) = SK 6 Continue D Return END Gesamtzeitbedarf ca.: m2 190 + 155 m + 20 4 Bei gleichwahrscheinlichen Anordnungspermutationen
„Einstiegsteil“ Ausführungshäufigkeit Zeit LOAD K2 1 STORE J 1 AFN LOAD J SUB K - 1 45 STORE J A LOAD U (J) STORE SK BRANCH LOAD SK 75 SUB U (I) B JZERO CHANGE JGTZERO CHANGE
LOAD U (I) STORE U (I + 1) LOAD I 115 SUB K - 1 C STORE I JGTZERO BRANCH JZERO CHANGE JUMP LOOP 20 CHANGE LOAD SK D LOOP LOAD J ADD K - 1 STORE J 110 LOAD M A SUB J JGTZERO ANF JZERO ANF RETURN END 1
Andere Algorithmen: Quicksort: Beispiel: 7 2 2 2 2 9 9 7 7 3 1 1 1 1 1 Elemente < 7 6 6 6 6 6 2 < 7 4 4 4 4 4 3 3 3 3 7 Ende 1. Phase 8 8 8 8 8 2 7 9 9 9 Elemente > 7 „Erwartete Anzahl von Phasen: ~ 1,41 log n Vergleiche je Phase: < n Erwartete Anzahl der Vergleiche: 0 (n log n)
Ungünstigster Fall: 9 1 8 8 7 . . . 7 6 6 n - 1 Elemente je Block 5 . . . 5 4 4 3 3 2 2 1 9 Ende 1. Phase Erforderliche Anzahl von Vergleichen: n2 - n ~ ; d. h. 0 (n2) Operationen 2
(Speicherbedarf von Algorithmen) Einige Begriffe: Theorie der Komplexität: befasst sich mit Grundfragen des Laufzeitverhaltens von Algorithmen (Speicherbedarf von Algorithmen) Einige Begriffe: Komplexität: Größe zur Beurteilung der Güte eines Algorithmus zur Lösung eines Problems. Wird als Funktion f des Arguments Problemgrößen angegeben: f (n) Problemgröße: Positive Zahl, die eine Eigenschaft einer konkreten Datensituation einer Problemstellung misst; Beispiel: Anzahl der Kanten in einem graphentheoretischen Problem. Anzahl der zu sortierenden Elemente in einem Sortierproblem. Größe der Matrix in einem LP-Problem. Größe der Matrix in einem Inversionsproblem. Exakt: Länge des Eingabewortes bei Turing-Maschine (die Problem löst!)
Zwei Verhaltensmerkmale werden berücksichtigt: Komplexität Zeitkomplexität: T (N) Speicherkomplexität: S (N) Ausführungszeit als Speicherbedarf bei Ausführung Funktion von N als Funktion von N
Zwei Komplexitätsmaßstäbe bei der Messung von Komplexität 1. Logarithmisches Komplexitätskriterium (Beruht auf der Anzahl der erforderlichen Operationen per Bit bzw. auf dem Bit-Speicherumfang) Grundannahme: Zeitkomplexität einer Operation mit N ist eine lineare Funktion von log (N). Ebenso gilt diese Annahme für die Speicherkomplexität. 2. Uniformes Komplexitätskriterium Jede Operation erfordert 1 Zeiteinheit Jede Zahl kann in einer Speicherstelle gespeichert werden.
Beispiel: Berechnung der Funktion nn Programm (AHO, HOPCROFT, ULLMANN) BEGIN Anzahl der Durchführungen READ r 1; IF r 1 < 0 THEN WRITE 0 ELSE BEGIN r 2 r 1; 1 r 3 r 1 - 1; WHILE r 3 > 0 DO; r 2 r 2 * r 1; n - 1 r 3 r 3 - 1; END; WRITE r 2;
Komplexität des Programmes Uniformes Logarithm. Kriterium Kriterium Zeitkompl. 0 (n) 0 (n2logn) Speicherkompl. 0 (1) 0 (nlogn) ~n Multiplikation 1 Speicherstelle f.d. Resultat n - 1 Σ log (ni) + log n = i=1 Σ (i + 1) log n = 0 (n2logn) log nn Anwendung: Zweckmäßigkeitsfrage. Größere Bedeutung: log. Kriterium.
Mehrband-Turingmaschine Endliche Kontrollsteuerung . . . . . . . . . . . . . . . . . . . . . . . . K-Band
Mehrband-Turingmaschine ist ein 7-Tupel: (Q, T, I, δ, b, q0, qf) 1) Q = Menge von internen Zuständen 2) T = Menge von Bandsymbolen 3) I = Menge von Input-Symbolen (I < T) 4) b T - I ist das Leerzeichen 5) q0 = ist der Anfangszustand 6) qf = ist der Endzustand 7) δ = Nächster-Zug-Funktion; bildet Teilmenge Q x Tk in Q x (T x {L, R, S}k ab. D. h. es bildet ein Tupel aus (q, a1, a2, ..., ak) (ai Tiq Q) in (q‘, (a‘1, d1), (a‘2, d2), ..., (a‘k, dk)) (dj {L, R, S}) ab.
Arbeitsweise: Die Maschine befindet sich im Zustand q und liest a1 am 1. Band, a2 am 2. Band usw. Sie geht dann in den Zustand q‘, schreibt a‘1 am 1. Band und bewegt den S/L-Kopf gemäß d1; sie schreibt a2 am 2. Band und bewegt den S/L-Kopf gemäß d2 usw. Beispiel: 2-Band-TM die Palindrom auf Band 1 erkennt (nach Aho, Hopcroft, Ullman, „The Design“ ...)
Vorgangsweise: 1) q0 Anfangszustand Band 1 0 1 1 1 0 b b Band 2 b b . . . . . 2) Maschine schreibt spezielles Symbol X auf Band 2 und kopiert das Wort von Band 1 auf Band 2 q1 0 1 1 1 0 b b . . X 0 1 1 1 0 b b
3). Die Turingmaschine setzt Lesekopf von Band 2 zurück auf 3) Die Turingmaschine setzt Lesekopf von Band 2 zurück auf X und vergleicht Band 1 mit Band 2 zeichenweise: q2 0 1 1 1 0 b b X 0 1 1 1 0 b
Definition der Maschine:
Beispiel: a1 a2 a3 = 0 1 0; qf = q5 (q0 0 1 0, q0) l- (q1 010; xq1) l- (0q1 10, x0q1) l- (01q10, x01q1) l- (010q1, x010q1) l- (010q2, x01q20) l- (010q2, x0q210) l- (010q2, xq2010) l- (010q2, q2x010) l- (01q30, xq3010) l- (01q40, x0q410) l- (0q310, x0q310) l- (0q410, x01q40) l- (q3010, x01q30) l- (q4010, x010q4) l- (q5010, x010q5)
Turingmaschine gestattet 2 Interpretationsmöglichkeiten: A) Sprach-Akzeptor B) Berechnungsautomat zur Berechnung der Funktion f
Sätze zu RAM-Modell und Turing-Maschine Satz: Ist L eine Sprache, die von einem RAM-Programm in der Zeitkomplexität f (n) verstanden wird, so wird sie von einer Turing- Maschine in einer Zeit verstanden, die in polynomialer Beziehung zu f (n) steht. f1 (n) und f2 (n) stehen zueinander in polynomialer Beziehung, wenn es zwei Polynome p1 (n), p2 (n) gibt, so dass: p2 (f1 (n)) > f2 (n) und p1 (f2 (n)) > f1 (n) gilt! (ohne Division und Multiplikation sogar CTM = 0 (f (n)2)) Beispiel: f1 (n) = 2n3 und f2 (n) = n6 stehen in polynomialer Beziehung zueinander, da für (n6 =) f2 (n) < (2n3)2(= 4n6) p2 (x) = x2 (2n3 =) f1 (n) < 2n6 p1 (x) = 2x
Nicht-deterministische Turing-Maschine Definition: der Unterschied einer nicht-deterministischen TM zu einer deterministischen TM liegt in der Abbildung δ: δ : QxTk + (Qx (Tx {L, R, S})k) d. h. δ bildet in Teilmengen ab und ist daher mehrwertig!
Beispiel: Man ändere obiges Palindrombeispiel derart, dass gilt: Reaktionen: Band 1 Band 2 Band 1 Band 2 Zustand und Übergang q0 0 b 0,S x,R q1 1,S x,R q1 1 b 1,S x,R q1 0,S x,R q0 b,S x,R q1 b b b,S b,S q0 1,S 1,L q1 (q0, 1, b) Führen u.U. nicht (1,S; x,R; q1) (0,S; x,R; q0) (b,S; x,R; q1) nicht zu Akzept! ========== Sinnvoll - führt zu Akzept
D. h. es genügt bei einer NDTM die Möglichkeit, bei richtiger Wahl eine Sprache akzeptieren zu können! Definition: Die Zeitkomplexität einer NDTM M ist T (n), wenn für jeden akzeptierten Input-String der Länge n eine Folge von Zügen, die zur Annahme in höchstens T (n) Zügen führt, existiert! Die Speicherkomplexität einer NDTM ist S (n), wenn es eine Zugfolge gibt, so dass nach höchstens S (n) unterschiedlichen Inputlesungen auf verschiedenen Feldern am Band das Eingabewort akzeptiert werden kann.
Die Problemklassen P und NP Definition: a) Wir bezeichnen die Menge aller Probleme (Sprachen), die von einer det.TM in polynomialer Zeit gelöst (akzeptiert) werden können, als Probleme in P. b) Wir bezeichnen die Menge aller Probleme (Sprachen), die nur von einer nicht-deterministischen TM in polynomialer Zeit gelöst (akzeptiert) werden können als Problem in NP.
Satz:. Eine nicht-deterministische TM lässt sich von einer DTM in Satz: Eine nicht-deterministische TM lässt sich von einer DTM in 0DTM(cT(n)) simulieren, wenn die Zeitkomplexität auf den NDTM T(n) war (milde Beschränkungen sind erforderlich). Satz: Eine nicht-deterministische TM lässt sich von einer DTM in der Speicherkomplexität 0DTM(S(n2) simulieren, wenn S (n) die Speicherkomplexiät auf der NDTM war (milde Beschränkungen ähnlich zu oben!).
Korollar: A) Algorithmen, die von NDTM in polynomialer Zeit T(n) ausgeführt werden können, können von DTM in der Zeit 0(cT(n)) - also in exponentieller Zeit - ausgeführt werden. B) Der Speicherbedarf S (n) bleibt bei der Simulation im polynomialen Bereich, wenn er zuvor polynomial war. Definition: Ist ein Problem p NP und können Probleme pi (i = 1, 2, ...) derart umgeformt werden, dass die Probleme pi nach Umformung mit dem Lösungsalgorithmus von p gelöst werden können, so heißen p, pi(i = 1, 2, ....) NP- vollständig! Bemerkung: Es gibt Probleme in NP die nicht NP-vollständig sind!
co NP Problem der zusammen- P Problemklassen: I) Nur Zeitkomplexität Beweisbar unlösbare Probleme: Halteprobleme von TM Beweisbar NP-schwere Probleme Ja-nein-Probleme, NP-vollständige deren Komplementärprobleme Probleme in NP sind!! NP co NP Problem der zusammen- gesetzten Zahlen P
NP-Zeit P-Zeit II) Zeit- und Speicherkomplexität Nicht-endlicher Speicher Nicht-polynomiale Speicherkomplexität Polynomiale Speicherkomplexität NP-Zeit P-Zeit
Probleme in P: Matrixmultiplikation 0 (n2.71) - 0 (n3) mult. Sortierprobleme (0 (nlogn) - 0 (n3)) Auffinden des nächsten Paares (0 (n2) - 0 (n)) Minimal Spannender Baum (Minimalgerüst) Eulerscher Graph (0 (cn) - 0 (n))
NP-vollständige Probleme: Probleme in NP: NP-vollständige Probleme: Dynamische Programmierung Ganzzahlige Programmierung Travelling-Salesman-Probleme Cluster-Probleme Hamiltonscher Kreis Einige Scheduling-Algorithmen Knapsack-Problem Quadratisches Zuordnungsproblem SET-Covering-Problem Probleme in NP und nicht NP-vollständig Das Problem, ob eine Zahl p eine Primzahl ist.
1012 1011 1010 109 108 107 106 105 104 103 102 101 100 nn ni 2n n3 + n2 + n + 1 n2 + n + 1 n + 1 n 1 2 3 4 5 6 7 8 9 10 11
Approximative Algorithmen: I = Problemdaten Opt (I) = Optimallösungswert A (I) = Wert der Zielfunktion bei approximativer Lösung 1) Approximation der Optimallösung durch Approximation im Zielfunktionswert: Opt (I) - A (I) Maximierungsproblem: minimiere (= s) Opt (I) (Minimierungsproblem analog!) Es ist also Konvergenz im Zielfunktionswert erwünscht, d.h. lim s 0 T (n) S (n)
2). Approximation der Optimallösung durch Auffinden der optimalen 2) Approximation der Optimallösung durch Auffinden der optimalen Lösung mit einer gewissen Wahrscheinlichkeit: Maximiere: W (A (I) = opt (I)) Es ist also Konvergenz in der Wahrscheinlichkeit erwünscht, d.h. lim W (A (I) = opt (I)) 1 T (n) S (n) 3) Mischform aus 1) und 2) Maximiere W (s 0) für jeden Wert des Paares (T (n), S (n))
Approximative Algorithmen vom 1. Typ A) s-approximative Verfahren opt (I) - A (I) Offenbar gilt: 0 < (= s) < 1. opt (I) Definition: Unter einem s-approximativen Verfahren versteht man ein Verfahren mit der Eigenschaft, dass für jeden Input I des Problems gilt: < s Definition: Eine Schranke heißt eng, wenn zu jedem ε > 0 ein I derart existiert, dass + ε > s
Beispiel Rucksackproblem: n Maximiere z = Σ ci xi unter der Nebenbedingung: i = 1 Σ ai xi < b; (xi > 0 und ganzzahlig) Es gelte b, ai, ci > 0 und ai < b.
Heuristischer Algorithmus A: Es gelte c1/ a1 > c2/ a2 > . . . > cn/ an V A ALG X (N, B: Globale Var.) [1] I S 0 [2] LOOP: I I + 1 [3] X [I] L (B - S) : A [I] [4] S S + A [I] X [I] [5] (I < N) / LOOP V Bemerkung: Man packt jene Objekte in größtmöglicher Anzahl in den Rucksack, deren Wert je Gewichtseinheit maximal ist; (Anzahl des i-ten Objekts = x) Rucksack: Wert: L1 L2 L3 Ln Objekte: O O O . . . . . O Gew. a1 a2 a3 an
Satz: der Algorithmus ALG ist ein ½- approximatives Verfahren. dissl: Bis hierher wurde korrigiert. 19/01/04 Satz: der Algorithmus ALG ist ein ½- approximatives Verfahren. Begründung: b Offenbar gilt: opt (I) < c1 —; a1 c1 [—] < A (I); b b [—] b - [—] a1 opt (I) - A (I) A (I) a1 a1 b/2 Also = 1 - < 1 - = < = 1/2 opt (I) opt (I) b b b — b/2 Bemerkung: Die Schranke ist eng. b Beispiel: Für n = 2; c1 = p + 2; a1 = p + 1; c2 = a2 = p > 3 und b = 2p gilt: opt (I) - A (I) p - 2 p - 2 = ; jedoch gilt lim = 1/2 opt (I) 2p 2p p
Approximationsschemata Definition: Sei p ein diskretes Optimierungsproblem und existiert zu jedem ε > 0 ein polynomial beschränktes ε-approximatives Verfahren A (ε) das p löst, so heißt die Familie von Verfahren {A (ε) | ε > 0} (polynomial beschränktes) Approximationsschema Beispiel: binäres Rucksackproblem: (es darf höchstens 1 Stück einer Art hineingepackt werden, d. h. xi {0, 1}.) Sahni zeigt, dass hierfür ein polynomial beschränktes Approximationsschema existiert, dessen Zeitkomplexität mit seiner Güte „ε“ EXPONENTIELL wächst.
Definition:. ein approximatives Verfahren, dessen Rechenaufwand Definition: ein approximatives Verfahren, dessen Rechenaufwand durch ein Polynom, welches die „Länge“ des Inputs und die Approximationsgüte als Argument besitzt, beschränkt ist, heißt gleichmäßig polynomial beschränktes Approximationsschema! Bemerkung: Für spezielle Varianten des Rucksackproblems gibt es ein gleichmäßig polynomial beschränktes Approximationsschema (Beweis: Sahni)
Travelling-Salesman-Problem
N. Christofides-Algorithmus ((s = 1,5); 0 (n³))
Approx. Algorithmus: (Probabilistisches Approximationsschema) Vorausgesetzt: t (n) sei eine Funktion: t : N R+, derart, dass A. T (N) log2 log2 n n B. für alle n sei — ein Quadrat einer Zahl ε N. t
Karps Algorithmus: 1. Teile das Einheitsquadrat in ein regelmäßiges Gitter aus t (n) n/T (n) (= N/log2 log2 N) Teilquadraten mit der Seitenlänge n 2. Unter Verwendung eines dynamischen Programmierungs- algorithmus (nach Karp 0 (m2m) bei m Orten) werde eine optimale Tour für die Menge von Punkten im Subquadrat ermittelt: (n/log2 log2 n) Quadrate mit jeweils „ungefähr“ log2 log2 n Orten; also ~ 0 ((n/(log2 log2 n)) (log2 log2 n) log2 n) = 0 (n log2 n) Berechnungen. 3. A) Jede der n/t (n) Subtouren werde als Punkt betrachtet. (Als Distanz zwischen zwei „Punkten“ in P1 und P2 werde die „kürzeste“ Distanz zwischen irgendzwei Punkten in P1 und P2 gewählt; Komplexität: 0 ((n/log2 log2 n) log2 log2 n) = 0 (n). B) Konstruiere ein Minimalgerüst, dass die Subtouren verbindet (Komplexität: 0 ((n/log2 log2 n) log log (n/ log2 log2 n)) < < 0 (n log log n)
4. Konstruiere einen geschlossenen Weg W, der jede Subtour genau 4. Konstruiere einen geschlossenen Weg W, der jede Subtour genau 1 mal durchläuft und jede Kante des Baumes 2 mal. W ist die gesuchte Lösung. Satz von Karp: Sei I ein T-S-Problem mit zufällig (gleichverteilten) Orten im Quader Q. Obiger Algorithmus findet eine mit dem Faktor (1 + ε) (ε > 0) garantiert „fast überall“ optimale Lösung in der Zeit 0 (n log n). Bemerkung: Der Satz von Karp basiert auf einem Theorem von Beardwood, J., Et Al. (1959), dass der Minimalumfang eines Polygons mit n Ecken, die „zufällig“ im ebenen Quadrat Q gewählt wurden, innerhalb von ε „fast überall“ um (C n A)0,5 liegt. (A = Fläche von Q; n = Anzahl der Ecken; lim c = 0,75). n (N = 1000; A = 1; (C N A)0,5 ~ 27)
Weg des Karp‘schen Algorithmus (Euklid‘sches 52-Städte Problem) 1) t ~ log2 log2 52 ~ 2,51 ~ 3 n 3) — = 14; kein perfektes Quadrat n/t sei 16 oder 9. t Wir wählen n/t = 9; folglich t = 5,7. 4) Einheitsquader wird in 9 Quader mit der Seitenlänge: 5) Ermittle optimale Rundreisen in den Quadr. (dyn. Progr.) 6) Ermittle ein MINIMALGERÜST (mit „nächsten“ Punkten).
Zeitkomplexität: 0 (n log2 n) Lösungsgüte: „Fast überall“ für ε > 0 innerhalb (1 + ε) x Opt.
P = Mengensystem von berechenbaren Problemen I. Begriffe P = Mengensystem von berechenbaren Problemen P = ein berechenbares Problem p = Problemstellung eines berechenbaren Problems P Es gilt daher: P P und p P
Problemgröße eines berechenbaren Problems: Es gibt eine Funktion, die die Menge der Problemstellungen in die Menge der positiven ganzen Zahlen abbildet: g : P N+ Der Wert g (p) = n heiße Größe der Problemstellung p. Bemerkung: P kann in disjunkte Teilmengen PN zerlegt werden; es gelte: Pn = {p p P und g (p) = N} Weiteres gilt: U Pn = P N
Algorithmen zur Lösung eines Problems Die Lösungsvorschrift A zur Lösung eines berechenbaren Problems P nennen wir einen Algorithmus. Mit AP bezeichnen wir die Menge aller Algorithmen zur Lösung von P: AP = {A A löst P für alle Problemstellungen p P} Effizienz eines Algorithmus Unter der Effizienz eines Algorithmus A verstehen wir die Laufzeit eines Algorithmus A zur Lösung von p P: TA (p) und seinen Speicherbedarf: SA (p)
Worst-Case-Zeitkomplexität eines Algorithmus: Bemerkung: Es interessiert hier das Laufzeitverhalten eines Algorithmus A. Wir drücken die Laufzeit in der Anzahl der erforderlichen Berechnungsschritte aus und Sprechen von der Zeitkomplexität des Algorithmus. Worst-Case-Zeitkomplexität eines Algorithmus: Die Worst-Case-Komplexität TA (p) eines Algorithmus A ist definiert durch: TA (n) = max {tA (p) | p Pn} Mittlere Zeitkomplexität eines Algorithmus Wir bezeichnen mit wi die Wahrscheinlichkeit für das Auftreten der Problemstellung pi der Größe n, d. h: pi Pn. Unter der mittleren Zeit-Komplexität E (tA) verstehen wir den Erwartungswert: E (tA) = wi tA (pi) i
Definition: Probabilistischer Algorithmus (nach Rabin [3]) (b1, b2, ..., bM) bezeichne eine Stichprobe rM vom Umfang m aus der Menge Z; (meist gilt Z = {0, 1, 2, ... n-1}). RM bezeichne die Menge aller Stichproben rM aus Z. Es gelte R = U RM M (Die Elemente von R bezeichnen wir mit r)
EA (pi) = EA (pj) für pi, pj, Pn mit Unter einem randomisierten Algorithmus A verstehen wir einen Algorithmus, der unter Einbeziehung der Stichprobe r R jede Problemstellung p Pn mit der erwarteten Zeitkomplexität EA (n) löst: EA (n) = EA (pi) und EA (pi) = EA (pj) für pi, pj, Pn mit EA (pi) = tA (r, pi) x W (|r| = m r = rM) r R tA (r, pi) = Laufzeit des Algorithmus A bei Problemstellung pi und der Stichprobe r R W (|r| = m r = rM) = Wahrscheinlichkeit, eine spezielle Stichprobe vom Umfang M (rM RM) zu ziehen. Bemerkung: Auf analogem Wege kann man gewöhnliche und zentrale Momente der Laufzeitverteilung einführen. Häufig ist der Stichprobenumfang vorgegeben und keine Zufallsgröße, weiter ist uns kein Fall bekannt, in dem die Elemente aus Z nicht als eine Zufallsstichprobe (mit oder ohne Zurücklegen) gezogen werden.
(Randomisierte approximative) probabilistische Algorithmen Unter einem probabilistischen Algorithmus A verstehen wir einen Algorithmus, der nicht jede Problemstellung mit Sicherheit lösen kann. Der probabilistische Algorithmus soll jede Problemstellung pi Pn mit einer (angebbaren) Mindestsicherheit lösen; hier gibt es zwei Möglichkeiten (bzw. Kombinationen): A) Es ist eine untere Schranke für die Wahrscheinlichkeit, die Lösung gefunden zu haben, bekannt. B) Es ist eine Schranke für das maximale Ausmaß der Abweichung des Wertes P gefundenen Lösung vom Wert der gesuchten Lösung bekannt.
II. Beispiele probabilistischer Algorithmen Rabin gibt selbst einen probabilistischen Algorithmus zur Feststellung der Primalität einer Zahl N und einen mit Sicherheit lösenden Algorithmus zur Feststellung eines Paares von Punkten minimaler Distanz an (randomisiert).
Zu 1: Nearest-Pair-Algorithmus Beispiel eines Problems (2-dimensionale Problemstellung bei euklidscher Distanz): Gegeben sei eine Menge X von Punkten X = {x1, x2, ... xn} Im 2. Gesucht ist jenes Paar (xq, xp), für das xq xp und D (xq, xp) = min {D (xi, xj)| xi xj und xi, xj X} mit D (xi, xj) = (1xi - 1xj)2 + (2xi - 2xj)2 gilt; (1xi, 2xi bezeichnen den Wert der ersten und zweiten Koordinate von xi). Eine wesentliche Überlegung für das Design des Rabin‘schen Algorithmus ist die Einführung eines Gitters mit konstanter Maschenweite über dem 2.
Qxi Grundüberlegung: IV. xj III. δ I. II. δ 1) Man lege ein Gitter mit der Maschenweite δ über den R2 2) Liegt ein Punkt xi im Quadranten Q eines Gitters der Maschenweite δ, so kann ein Punkt xj, für den gilt d (xi, xj) < δ, nicht außerhalb des schraffierten Bereichs liegen. 3) Lege ich vier Gitter mit der Maschenweite 2 δ und den Eckpunkten I., II., III., IV. über den R2, so muss jedes Paar xi, xj mit d (xi, xj) < δ in einem Quadranten eines der (vier) Gitter liegen.
Algorithmus:. (erwartete Zeitkomplexität 0 (N) im Gegensatz zu Algorithmus: (erwartete Zeitkomplexität 0 (N) im Gegensatz zu 0 (n log n) u. höher) 1) Ziehe eine Zufallsstichprobe vom Umfang n4/9 aus X: n8/9 - n4/9 Errechne in maximal ————– Schritten (0 (n)) das Wertepaar 2 d (sq, sp) mit minimaler Distanz δ. 2) Ziehe eine Zufallsstichprobe vom Umfang von n2/3 Elementen. Lege hierüber vier Gitter mit der Maschenweite von 2 δ. Bilde für jedes der vier Gitter die Mengen I II III IV 'S , 'S , 'S , 'S , (1 < i < n2/3), die die Punkte der Stichprobe in i i i i den einzelnen Quadranten enthalten. Ermittle das Paar (xp, xq) minimaler Distanz δ.
3). Lege wieder VIER Gitter der Maschenweite 2 δ über die 3) Lege wieder VIER Gitter der Maschenweite 2 δ über die Punktemenge X und bilde die Mengen: I II III IV S , S , S , S , (i < n). i i i i 4) Ermittle das Punktpaar minimaler Distanz (xi, xj); I II III IV xi und xj müssen beide in einer der Mengen S , S , S , S , (i < n) i i i i liegen.
Zu 2) Approximativer Algorithmus zur Feststellung der Primalität Aufgabe: Es soll für eine Zahl n festgestellt werden, ob n eine Primzahl ist. Verfahren: Geht von einem Satz von Miller [2] aus. Millers Satz: Sei n eine natürliche Zahl und es gelte 1 < b < n. Sei W (b) die Aussage: (1) bn-1mod n 1 oder n - 1 (2) i ( = m und m ganzzahlig und 2i 1 < GGT (bm - 1,n) < n). Ist W (b) richtig für b {1, 2, ..., n - 1}, dann heißt n zusammengesetzt und b heißt ZEUGE der Zusammengesetztheit von n. Rabin‘s Satz: Ist n zusammengesetzt, so gibt es mindestens 2 Zahlen b, für die W (b) gilt.
Der Algorithmus: Problem: Ist n eine Primzahl? 1) Es werden m Zahlen 1< b1 < n, ..., 1 < bm < n zufällig aus {1, 2, .... n - 1} gezogen. 2) Ist W (b) für alle bi (i = 1, 2, ... m) nicht gültig, so schließen wir hieraus, dass n Prim sei. Gilt W (bi) mindestens ein Mal, so ist n zusammengesetzt! . . . . . . . . . . . . 1 2 3 4 5 n1 n Stichprobe: bi1 bi2 bi3 . . . . . bim
Bemerkung: Auf Grund des Theorems von Rabin folgt für ein n, dass die Irrtumswahrscheinlichkeit kleiner ½m ist, wenn der Umfang der Zufallsstichprobe m ist! Bemerkenswert an diesem probabilistischen Algorithmus ist der Umstand, dass der Ertrag aus der (Zufalls-)Stichprobe einen monot. zunehmenden Verlauf aufweist; kein „Laufzeit Opt.“ Stichprobenumfang.
Primalitätsalogorithmus: Ertrag der Stichprobe 1 1 1 - —— Schranke für Primalitätsw. 2m M (Kosten) Stichprobenumfang
Nearest-Pair-Algorithums: Laufzeit M2 n2 - n 2 M2opt M1opt M1 M1 Erster bzw. zweiter Stichprobenumfang M2 M1opt optimaler Stichprobenumfang M2opt
Offene Fragen: 1) Sind zwei sukzessive gezogene Zufallsstichproben optimal? 2) Welche Stichprobenumfänge sind optimal? 3) Kann man Pn in weitere Unterklassen teilen, für die verschieden effiziente und jeweils optimale Politiken angebbar sind? 4) Soll die Entscheidung über weitere größere Stichproben nicht mehrstufig gefällt werden?
Ein Suchproblem und einige Lösungen: Gegeben: Eine Menge S von n unterschiedlichen positiven ganzen Zahlen. s1 < s2 < ... < sn Die einfach geschlossen verkettet in aufsteigender Sortierordnung und (o.b.d.a.) auf benachbarten Speicherplätzen gespeichert sind. Z. B. gelte n = 5: Anker: a0 + 4 s1 s2 s3 s4 s5 Adressen: a0+4 a0+1 a0 a0+3 a0+2 (Zufallspermutation) Problem: Erfolgreiche Suche nach s S.
I.) Nicht probabilistische Lösung: Algorithmus A‘ Gegeben: Ausgezeichnete Anfangsadresse zu Beginn der Suche: Anker Algorithmus: Beginnend mit dem an der Ankeradresse gespeicherten Element wird unter der Verkettung so lange sequentiell gesucht, bis das gesuchte Element s gefunden wurde. II.) Einfache probabilistische Lösung: A Es wird nicht eine feste Ankeradresse verwendet, sondern durch eine Stichprobe vom Umfang m = 1 die Ankeradresse zufällig bestimmt. n + 1 Erwartete Komplexität: ———– (= EA (n)) 2
Probabilistischer Algorithmus 1) Wir erzeugen Zufallszahlen (b1, b2, ...) aus {0, 1, .... n - 1}. (Durch jede Zahl bi ist ein Tabellenelement bestimmt, welches an der Adresse bi gespeichert ist.) 2) Nach Beendigung der Erzeugung zufälliger Adressen und ihrer Auswertung beginnen wir, das gesuchte Element sequentiell über die Verkettung aufzusuchen. Als Anker verwenden wir jeweils jenes Tabellenelement, welches unter allen durch die zufällig erzeugten Adressen (b1, b2 ...) bestimmten Tabellenelemente den kleinsten Distanzwert aufweist.
Bemerkung:. Der Umfang der Zufallsstichprobe kann entweder von Bemerkung: Der Umfang der Zufallsstichprobe kann entweder von vornherein festgelegt werden, oder aber selbst eine Zufallsvariable sein, wenn wir ein Stoppkriterium einführen. Je nach Stoppkriterium und Art der Ziehung (O. Z. oder M. Z.) kann der Stichprobenumfang auch potentiell unendlich sein. s1 s2 .... sq sq+1 .... si si+1 .... sj .... sn Gesucht Distanz bi1 .... bik bi k + 1 ... bm Nächstes Element Zufallsstichprobe
Einige grundlegende Zusammenhänge und Begriffe: Definition 1: Unter einer Abstandsfunktion d für eine in aufsteigender Sortierordnung geschlossen verkettet implementierte Tabelle mit den Elementen S = {s1, s2, ... sn} und s1 < s2 < ... < sn verstehen wir die Funktion: si - sj für sj < si, d (si, sj) = nd - sj + si für si < sj; d = (sn - s1) / n - 1 und heißt durchschnittlicher Abstand.
Definition 2: Unter der Abstandsmatrix D verstehen wir eine Matrix mit den Komponenten dij = d (si, sj). Bemerkung: Die Abstandsmatrix D ist nicht unbedingt symmetrisch. Definition 3: Unter der Matrix von sequentiellen Suchschritten verstehen wir eine Matrix Z mit den Komponenten zij = z (si, sj). z (si, sj) bezeichnet die Anzahl von sequentiellen Suchschritten, wenn wir si von sj ausgehend sequentiell aufsuchen. Unter einem sequentiellen Suchschritt verstehen wir das Aufsuchen eines Elements aus S über die Verkettung und den Vergleich des gefundenen Elements mit dem gesuchten Wert. Bemerkung: z. B. erhalten wir zij = 0, wenn si = sj, und zij = 2, wenn si = sj+2 gilt.
Definition 4:. Eine Menge S heißt äquidistant, wenn Definition 4: Eine Menge S heißt äquidistant, wenn d = si+1 - si für i = 1, 2, ... n - 1. Bemerkung: z. B. ist die Menge S‘ = {0, 1, 2, ... n - 1} äquidistant mit d = 1. Jede äquidistante Menge S kann durch die lineare Transformation s - s1 s = ——— (s S) d In die Menge S‘ transformiert werden.
Unbedingt erforderlich für den probabilistischen Algorithmus: Angabe einer Distanzfunktion D auf S x S, die die Bestimmung des zu s nächsten Schlüssels in sequentiellen Suchschritten erlaubt: D (s, sj) = s - sj für sj < s; n ——— (sn - s1) - sj + s für s < sj n - 1 A) es gilt: B) A) gilt nicht s + 1 - si = sj+1 - sj (1, J {1, 2, ... n - 1}) (zumindest für die erwarteten Differenzen) D (s, sj) = Anzahl von sequentiellen Aus D (s, si) < D (s, sj) folgt si ist si+1 - si Suchschritten um s von sj näher zu s als sj (und umgekehrt). aufzusuchen (= z (s, sj)) (gilt z. B. wenn S eine Zufallsstich- probe einer nach F (s) stetig verteilten Gesamtheit ist.
Beispiel: S = {1, 9, 27, 33, 101} = {s1, s2, s3, s4, s5} D = —— (sn - s1) = 25 n - 1 Distanz 0 117 99 93 25 dij = d (si, sj) 8 0 107 101 33 D = 26 18 0 119 51 32 24 6 0 57 100 92 84 68 0 Sequentielle 0 4 3 2 1 zij = z (si, sj) Suchschritte 1 0 4 3 2 Z = 2 1 0 4 3 3 2 1 0 4 4 3 2 1 0
Der optimale Umfang von Zufallssuche Beobachtbar durch Zufallssuche: Werte einer Distanzfunktion I Ertrag der Zufallssuche: Bestimmt durch den Wert der Zufallsvariablen Z (Anzahl von sequentiellen Suchschritten zum gesuchten Element). Die Werte von d lassen eine Einschätzung der zugeordneten Werte von z zu.
Möglichkeiten in der Genauigkeit der „Schätzung“: A) Ist S äquidistant, so gilt: d (si, sj) ———– = z (si, sj) d B) Ist S äquidistant in der Erwartung, so gilt: E (d (si, sj)) ———— = z (si, sj) E (d) (E bezeichnet die Erwartung) C) Es gilt unabhängig von den Eigenschaften von S: d (si, sj) < d (si, sk) z (si, sj) < z (si, sk)
Zufallssuche: Kosten und Ertrag Laufzeitbestimmungen der Berechnungsschritte : A) Zufallssuche: Zufallssuchschritt Phasen eines Schrittes: 1) Suche das durch die Zufallszahl bi rm bestimmte Element s S auf. 2) Berechne den Distanzwert δ (si, s); (si = gesuchtes Element). Zeitbedarf: cst
B) Sequentielle Suche: sequentieller Suchschritt Phasen eines Schrittes: 1) Suche über einen Zeiger ein Element von S auf. 2) Vergleiche das gesuchte Element mit dem gefundenen Element. Zeitbedarf: cs Opportunitätskosten eines Zufallssuchschrittes: Reduktion der Distanz zum gesuchten Element - gemessen in sequentiellen Suchschritten - bei alternativem Einsatz der Zeit cst in sequentieller Suche: cst α = —— cs
Grenzertrag des K-ten Zufallssuchschrittes: Erwartete Reduktion der Anzahl der sequentiellen Suchschritte bei einer anschließenden sequentiellen Suche bei einem K-ten Zufallssuchschritt. Ziel der Zufallssuche (BALANCIERUNGSPRINZIP) Abbruch der Zufallssuche derart, dass der gesamte Zeitaufwand aus Zufallssuche und sequentieller Suche minimiert wird. Kriterium zur Minimierung des erwarteten Zeitaufwandes: Zufallssuche ist abzubrechen, wenn der Grenzertrag des K-ten Schrittes kleiner als α ist (bei konstantem cs und abnehmendem Grenzertrag der Zufallssuche).
Beispiele: Modell bei beobachtbarem Wert z (s, sj) gesucht . . . . s1 s2 s3 . . . . . . . . s[n - 2n] . . . . . sn Stoppintervall: gilt z (sn, sg) < [2n] so stoppen: Effizienz (a = 1) ~ 2n F (z) = diskrete Gleichverteilung in {0, 1, .... n - 1}
Modelle bei nicht beobachtbarem Wert z (s, sj) 1) Bekannt: F (z) ist (diskrete) Gleichverteilung Wie approximieren durch stetige Gleichverteilung in [0,1]. 1 Erwartungswert des Minimums: Ek (X1) = ——– K + 1 Opportunitätskosten (für a = 1) : — n Ek (X1) + k/n EFF. (a = 1) ~ 2n K = OPT ~ n Stichprobenumfang K
2) Kenntnis von F (z) wird nicht vorausgesetzt. Beispiel: Rangauswahlmodelle Die Menge S sei nach den Werten z (s, si) aufsteigend geordnet; (s sei der gesuchte Schlüssel): (s =) si1, si2, si3, . . . . . . . . . . . Sin „Wahrer“ Rang in einer Sortierordnung nach z (s, si) Differenz von si im wahren Rang zu si1 = z (s, si) Ist sk1, sk2, .... skm-1 die nach den Distanzen d (s, sk) sortierte Zufallsstichprobe von Werten aus S, so erlaubt der relative Rang des m-ten zufälligen Wertes sm aus S einen Wahrscheinlichkeitsschluss auf den wahren Rang von sm. Effizienz (a-1) : 2n < Anzahl der Suchschritte
Statistische Modelle zur Optimierung der Zufallssuche A B Modelle, die eine Kenntnis von Kenntnis von z (si, sj) wird z (si, sj) für jedes Paar (si, sj) nicht vorausgesetzt annähernd unterstellen. II Mehrstufige Modelle, die von dem relativen Rang der Stichprobenelemente ausgehen: Vielzahl an Rangauswahlmodellen (z.B. ohne Stoppvektor-Beschränkungen: Effizienz > 2n für a=1; starke Zusatzbelastung) I Einstufige Modelle, die von den Erwartungswerten der Stichproben-minima ausgehen I Modelle ohne eine Be-schränkung der max. Anzahl von Zufallssuch-schritten II Modelle mit Beschränkung der Zufallssuchdauer (r U Ri ist vorgegeben) i = 1 Modelle mit gleichbleibender F (z) (Stichprobe mit Zurücklegen) (Effizienz (a=1):~2n) Adaptive Modelle (F(z) „adaptiert“) Bekannte Verteilung F (z) (Effizienz ~ 2n für a =1) Adaptive Modelle Mit Ohne Erinnerung Erinnerung Maximaler Stichprobenumfang ist endlich. Modelle, die erwartete Ränge minimieren (Stichprobe ohne Zurücklegen) (Effizienz (a=1):~2n)
Bemerkung: 1) In einzelnen Modellen meist Stichproben ohne Zurücklegen von Stichproben mit Zurücklegen zu unterscheiden. 2) Annähernde Verteilungen für F (z) und asymptotische Gesichtspunkte (z. B. Extremwertstatistik) bringen oft neue Varianten.
Resultierender Vorschlag zur inhaltlich qualitativen Klassenbildung in den Problemstellungen Probabilistischer Algorithmus 1) Einführung von Problemklassen P+, bei denen der Ertrag von Zufallssuche - gemessen in der hierdurch bestimmten Zeitkomplexität des deterministischen Algorithmusteiles - von einer beobachtbaren Zufallsgröße Z mit mehr oder weniger bekannter Verteilung, abhängt: A) Zeitinvariante Modelle: A 1) F (z) ist als Verteilung von Z unveränderlich oder die Zeit U nach Typ und Parametern bekannt. A 2) F (z) ist dem Typ nach bekannt. A priori Verteilung der Parameter ist bekannt (und natürlich konjugiert): Adaptive Modelle.
B) Zeitabhängige Modelle: Wie A 2), jedoch ist F (z) auch veränderlich durch Veränderungen der a priori Verteilung der Parameter von F (z) nach der Zeit: zeitadaptive Modelle. 2) Problemklassen P++, bei denen eine konkrete Verteilung F (z) bzw. ihre Kenntnis nicht vorausgesetzt wird (Rang-Auswahl- Modelle und verwandet Modelle) 3) Problemklassen P+++, bei denen F (z) zeitinvariant zeitabhängig ist, aber Z nicht beobachtet werden muss.
Problemstellungsklassen P+ P++ P+++ Modelle legen die Vor-stellung einer Zufalls-stichprobe von Daten aus einer (un-)genau bekannten Datenver-teilung zugrunde Modelle kommen ohne Datenverteilung aus; basieren auf Rängen, Permutationsanalysen u. a. Auch eine Verteilung des Ertrages der Zufallssuche wird nicht vorausgesetzt. (Kosten der Ziehung mit Rängen verrechenbar!) Modelle kommen ohne Datenverteilung aus; Kenntnis von einer Ertragsverteilung F (z) der Zufallssuche wird vorausgesetzt.
Applikation dieser Einteilung auf Nearest-Pair-Algorithmus: Zu optimierende Größe: Anfängliche Stichprobenumfänge: Anzahl der Stichproben u. a. P Koordinatenverteilung bekannt und Koordinatenverteilung soll ändert sich nicht zu „schnell“ nicht als bekannt vorausgesetzt werden P+, P+++ P++ Verteilung der Distanzen Distanzenverteilung nicht bekannt bzw. zu adaptieren: bekannt: Verteilungsabhängige Betrachtungen Verteilungsunabhängige A) Verteilungen zeitinvariant Betrachtungen B) Verteilung zeitabhängig und langsame Änderungen (Adaptive Modelle)
Abschließende Feststellungen zu probabilistischen Algorithmen, die mit Sicherheit lösen: 1) Probabilistische Algorithmen eliminieren zu (geringen) Kosten das Risiko, welches in der Problemstellungsabhängigkeit der Zeitkomplexität einzelner Algorithmen liegt. 2) Zeitkomplexität probabilistischer Algorithmen kann durch den Einsatz von Methoden der Wahrscheinlichkeitstheorie und Statistik (insbesondere der Stopptheorie, von Rangauswahlmodellen und verwandten Modellen und von anderen Modellen der statistischen Theorie) minimiert werden. 3) a) Die Einführung von Minimierungsbetrachtungen führt zur tieferen Unterteilung in Problemstellungsklassen und damit zu einer besseren Ausnutzung der Problemkenntnis durch den Algorithmus. b) Betrachtungen nach Punkt 3a) legen nahe, zeitabhängige Klassen von Problemstellungen einzuführen. Algorithmusrelevante Informationen über die Klassen werden mittels Information aus den wiederholten Problemlösungen fortgeschrieben.
Ganz analog: Quicksort Prinzip: Stelle eine Menge S von n Elementen derart um, dass alle Elemente sj > si (sj S - {si}) rechts von si und alle Elemente sj < si links von si stehen. si wird zufällig gewählt. z. B. s1 < s2 < s3 < s4 < s5 Ursprüngliche Anordnung: s3 s4 s5 s1 s2 zufällig gezogenes si: s3 Resultat der Umstellung: s2 s1 s3 s5 s4 werden jeweils wieder geteilt mit einem zufälligen Element. Probabilistische Frage: Optimaler Stichprobenumfang, um das optimale Element zur Teilung (Median) zu schätzen. Frazen W. D. and Mc. Kellar, H. C.: Samplesort: A Sampling Approach to Minimal Storage Tree Sorting, Journal Of The ACM, Vol. 17, No. 3 (1970), pp. 496 - 507.
Literatur: 0) Gill, J. T., Probabilistic Turing Machines And Complexity Of Computation, Tagungsbericht 43/1974, Algorithmen und Komplexitätstheorie, Oberwolfach. 1) Janko, W., Stochastische Modelle in Such- und Sortierprozessen, Duncker & Humblot, Berlin 1976. 2) Janko, W., An Insertion Sort For Uniformly Distributed Keys Based On Stopping Theory, Proc. Of The International Computing Symposium, 1977 (Liege), pp. 373 - 379. 3) Miller, G. L., Riemann‘s Hypotheses And Tests For Primality, Proc. Of The Seventh Annual ACM Symposium On Theory Of Computing (1975), pp. 239 - 239.
4) Rabin, M. O., Probabilistic Algorithms, in: Algorithms And Complexity: New Directions And Recent Results, Ed. J. F. Traub, Academic Press, New York 1976. 5) Rabin, M. O., Theoretical Impediments To Artifical Intelligence, IFIP 1974, pp. 615 - 619. 6) Rackhoff, C., Relativized Questions Involving Probabilistic Algorithms, Proc. Of The 10th Annual ACM Symposium On Theory Of Computing, 1978. 7) Janko W., Combinatorial Consideration On The Optimality Of Heuristic Solutions Of Problems, in: Datenstrukturen, Graphen, Algorithmen. Berichte zur praktischen Informatik 8, Verl. Hanser
- Rabin, M. O., Probabilistic Algorithms; Literatur (Auswahl) Complexity Of Sequential And Parallel Numerical Algorithms, Ed. J. F. Traub, Academic Press, New York, 1973. The Complexity Of Computer Computations, Ed. R. E. Miller, J. W. Thatcher, Plenum Press, New York, 1972 (Enthält u.a.: Karp, M., Reducibility Among Combinatorial Problems.) Algorithms And Complexity: New Directions And Recent Results, Ed. J. F. Traub, Academic Press, New York, 1976 (Enthält u.a.: - Karp, R., The Probabilistic Analysis Of Some Combinatorial Search Algorithms; *) - Rabin, M. O., Probabilistic Algorithms; - Shamos, M. I., Geometry And Statistics: Problems At The Interface; - Simon, H. A. and Kadane, J. B., Problems Of Computational Complexity In Artifical Intelligence). *) Bearwood, J., Halton, J. H. and Hammersley, J. M., The Shortest Path Through Many Points, Proc. Comb. Phil. Soc. 55 (1959), pp. 299 - 327.
Borodin, A. and Munro, B. , The Computational Complexity Of Algebraic Borodin, A. and Munro, B., The Computational Complexity Of Algebraic And Numeric Problems, Elsevier Pub. Comp., New York, 1975. Aho, A. V., Hopcroft, J. E. and Ullmann, J. D., The Design And Analysis Of Computer Algorithms, Addison-Wesley, 1974. Approximative Algorithmen (u. a.): Sahni, S., General Techniques For Combinatorial Approximation, Op. Res., Vol. 25, No. 6 (1977). Karp, R. M., Probabilistic Analysis Of Partioning Algorithms For The Travelling-Salesman-Problem In The Plane, Mathematics Of Operations Research, Vol. 2, No. 3, P. 209 ff. (1977).
Die Algorithmenwahl als Entscheidungsproblem Bemerkung: Es gibt Entscheidungsprobleme unter Sicherheit, für deren näherungsweiser und exakter Lösung eine Vielzahl von Lösungsalgorithmen zur Verfügung stehen. . . αk . . αj α1 α2 I1 I2 . . . . . . . . a1 a2 am 1 1 1 1 u (a ) - c u(a ) - c . . . 1 11 1 12 1 1 u (a ) - c . 2 21 . . . 1 1 1 1 u (a ) - c u (a ) - c . . . m m1 m m2 Approximative Algorithmen Optimierende Algorithmen
A = {α1, α2, ...., αk} ist die Menge der möglichen Algorithmen Beispiel: A = {a1, a2, ... , an} sei die Menge der möglichen Touren in einem T-S-Problem (es gelte u (am) > u (am - 1) > ... > u (a1)) {I1, I2, ...... } ist die Menge der möglichen T-S-Problemstellungen A = {α1, α2, ...., αk} ist die Menge der möglichen Algorithmen cij: „Durchführungskosten“ des jeweiligen Algorithmus bei Datensituation Ij und Aktion ai
Von den Aktionen wird meist implizit die „beste“ als gewählt unterstellt! Derzeit zwei Varianten der Algorithmenauswahl üblich: 1) p1, p2, ..... seien die Wahrscheinlichkeiten der Datenausgangssituationen. Σ Man bilde Ei (c) = { } pj cij J Auswahlregel: Man wähle jenen optimierenden Algorithmus a, für D u (am) - Em (c) maximal ist, d. h. Em (c) ist minimal Häufige - eher unbegründete - Annahme hierbei: 1 1 pi = — (i = 1, 2, ...., n) (bzw. f(x) = —– für x [a, b]). n b-a
2) Man wähle jenen optimierenden Algorithmus α für den gilt: max {min {u (am) - cmj}}; j {1, 2, ... } bzw. min {max{cmj}} i j D. h. man wähle jenen optimierenden Algorithmus α, dessen ungünstigstes Verhalten noch am besten ist. Vorgangsweise 1) und 2) sind nicht günstig, da hiermit nicht die Gesamtsituation berücksichtigt wird. Vielmehr müssten die Datensituationen (und die Ergebnissituationen) mit berücksichtigt werden, um folgendes Tableau zu erstellen:
Datensituationen Aktionen x Algorithmen I1 I2 . . . . . . 1 1 1 1 a1 a1 u (a ) - c u (a ) - c 1 11 1 12 a2 a1 u (a ) - c u (a ) - c 2 21 2 22 . . . am a1 . . a1 a2 . . am a2 . . am ak . .
(Eine besondere Problemstellung resultiert aus probabilistischen Algorithmen, die optimale Lösungen nicht unbedingt finden.) Die Algorithmenwahl bei Entscheidungen unter Sicherheit ist selbst u.U. ein Entscheidungsproblem unter Unsicherheit bzw. Ungewissheit.
Gremiale Entscheidungen unter Sicherheit Problemstellung: Können - und wenn ja, wie können - N Präferenz- ordnungen der Mitglieder eines Gremiums zu einer einzigen Präferenzordnung aggregiert werden? Entscheidungsraum: N Mitglieder Aktionenraum: A = {a, b, c, ...} bestehe aus m Alternativen Präferenzordnungen auf den Alternativen: ~, ~ , ...., ~ 1 2 N Problem: Entwicklung einer gremialen Präferenzordnung, ~ die plausible Kriterien erfüllt. Sei R die Menge aller möglichen Präferenzordnungen. Das Problem besteht dann im Auffinden einer Abbildung F : Rn R
Bemerkung:. die Anzahl der Aggregationsmechanismen F wächst sehr Bemerkung: die Anzahl der Aggregationsmechanismen F wächst sehr rasch mit |A|: Beispiel: 1) |A| = 2; R = {a ~ b, b ~ a, b ~ a} 2) |A| = 3; R = {a ~ b ~ c; b ~ c ~ a; c ~ a ~ b; a ~ c ~ b; b ~ a ~ c; c ~ b ~ a; a ~ b ~ c; b ~ a ~ c; c ~ a ~ b; b ~ c ~ a; a ~ c ~ b; a ~ b ~ c; a ~ b ~ c} 3 3 |R| = 3! + ( ) 2! + ( ) = 13; |F| = |R| |R|3 = 132197 2 3 Kardinalzahl der Menge der möglichen Abbildungen
Wählerparadoxon bei Mehrheitsentscheidung 3 Alternativen (A = {a, b, c}) und 3 Gremienmitglieder Abstimmungsreihenfolge: 1) a VOR b 1,3 = Mehrheit 2) b VOR c 1,2 = Mehrheit 3) c VOR a 2,3 = Mehrheit Also: resultierende Prioritätsordnung muss nicht transitiv sein.
Anerkannte Forderungen an einen rationalen Aggregationsmechanismus F: Forderung 1: Universeller Definitionsbereich Definitionsbereich des Aggregationsmechanismus F ist die Menge RN aller Präferenzordnungsprofile. Forderung 2: Einstimmigkeitsbedingung Es gelte a, b, A und a b (i = 1, 2, .... , N); i Es soll dann auch für F mit der Relation gelten: a b
Beispiel: ~ : a b c; 1 ~ : a c b; also gilt: a b (i = 1, 2, 3); 2 i a c (i = 1, 2, 3); ~ : a b c i 3 Also soll für F gelten: a b und a c.
Forderung 3: Unabhängigkeit von irrelevanten Alternativen ‘ ‘ ‘ Es seien (~, ~, ..., ~) und ( ~, ~, ..., ~) zwei Präferenzordnungstupel; 1 2 N 1 2 N ‘ die beiden kollektiven Präferenzordnungen ~ und ~ müssen genau dann auf {a, b} übereinstimmen, wenn die beiden Präferenz- ordungstupel auf {a, b} übereinstimmen. Forderung 4: Diktaturverbot Es gibt kein Gremienmitglied i, so dass genau dann, wenn a b i gilt, auch a b gelten muss (=Diktator). Ein Entscheidungsspielraum bliebe bei Existenz eines Diktators nur bei Indifferenz.
Satz (Unmöglichkeitstheorem von Arrow) Gilt N > 2 und m > 3, so sind die Forderungen 1 bis 4 miteinander unvereinbar; (d. h. es gibt für N > 2 und m > 3 keinen Aggregations- mechanismus, der alle 4 Forderungen erfüllt!) Bemerkung: für m = 2 erfüllt die Mehrheitsentscheidung alle Forderungen. (Beweis: Blau 1957)
Möglichkeiten des Verzichts auf Forderungen 1) Verzichtsmöglichkeiten bei Forderung 1 (Universeller Definitionsbereich) a) Black D.: Einschränkung des universellen Definitionsbereichs durch Eingipfelbedingung Fordert, dass nur solche Präferenzordnungen betrachtet werden dürfen, welche die Eingipfelbedingung erfüllen. Eingipfelbedingung: Alternativenmenge {a, b, ...} Präferenzordnungen {|i = 1, 2, ...N} 1 Ist erfüllt, wenn Alternativen so angeordnet werden können, dass für jedes Gremienmitglied die Präferenzordnung eine eingipfelige Kurve darstellt.
Beispiel (Wählerparadoxon): a b c b c a ~ ~ ~ 1 2 3 a b c b c a c a b Man kann beweisen (Black (1948) Arrow (1951)), dass bei ungerader Anzahl von Gremienmitgliedern bei Beschränkung des Aggregationsmechanismus auf jene Präferenzordnung, die der Eingipfelbedingung genügen, Forderung 2, 3, 4 miteinander verträglich sind. Die Mehrheitsentscheidung ist der entsprechende Aggregationsmechanismus!
N ungerade erforderlich! Beispiel ungeraden N: ~ ~ 1 2 a b b c c a Mehrheitsentscheidung jedoch: c ~ a (1 : 1) a ~ b (1 : 1) b c (statt c ~ b wegen Transitivität!)
Dynamische Entscheidungsmodelle unter Sicherheit Beispiel eines dynamischen Entscheidungsproblems: xi = Lagerbestand am Ende der Periode i wi = Bedarf der Periode i Bi = Bestellung zu Beginn der i-ten Periode x3 = 0 b3 w3 x2 w2 b2 x1 b1 w1 Planungshorizont
Problem:. Bestimme eine Bestellpolitik (a1. , a2. ,. an. ), die die Problem: Bestimme eine Bestellpolitik (a1*, a2*, ... an*), die die Lagerkosten bzw. damit zusammenhängende Kosten minimiert. Bemerkung: Ist eine dieser Größen eine Zufallsvariable, so ist das Modell stochastisch. Ist der Planungshorizont endlich und die Anzahl der Perioden endlich, so handelt es sich um eine endliche Problemstellung. Satz: Jede endliche Problemstellung mit endlich vielen möglichen Bestellmengen, Lagermengen kann in eine statische Problemstellung überführt und als solche gelöst werden.
Beispiel (Notation): xn = Anfangsbestand der n + 1-ten Periode bn = bestellte Menge (zu Anfang der n-ten Periode) < 2 wn = Nachfrage der n-ten Periode: w0 = 1; w1 = 3; w2 = 2 h = Lagerkosten pro Stück: 1,-- € c = Bestellkosten pro Stück: 1,-- € p = Kosten unbefriedigten Bedarfs: 3,-- € kn = kn - 1 + xn-1 h + (wn - bn - xn-1) p + bnc
Wir bauen einen Entscheidungsbaum auf und können hieraus leicht die optimale Politik ersehen: 3. Periode: w2 = 2 x2 = 0 1. Periode: w0 = 1 2. Periode: w1 = 3 8-Kosten
Wir können uns leicht durch Durchrechnung aller 27 Fälle die optimale Bestellpolitik (b0*, b1*, b2*) ermitteln, das Problem ist typisch für eine Reihe systemtheoretischer Problemstellungen der folgenden Art: Externe „Störung“ (deterministisch oder stochastisch) Input Output S = Steuerbereich π Feedback-Kontrolle
Lagerhaltung: Input = (b0, b1, b2) Output = (x0, x1, x2, x3) Externe Störung = (w0, w1, w2) S (Steuerbereich) = Lagerbeschränkungen Da das System in diskreter Zeit arbeitet, kann man sich den Entscheidungsprozess als wiederholte Einzelentscheidungen μk vorstellen, die in ihrer Gesamtheit die Steuerungsfunktion π ausmachen: xk+1 = f (xk, wk, bk)(Systemgleichung) wk bk Lager: S xk Bestellung μk (xk) = bk
π = (μ0, μ1,..., μn-1) = Menge von Funktionsfolgen! Optimale Steuerung: Jenes Funktionstupel = (μ0*, μ1*, ..., μn-1*) Welches die Kostenfunktion: n-1 K (x, w, b) = Kn (xn) + Kk (xk, bk, wk) (n sei letzte Periode) k=0 minimiert. Bemerkung: wir können auch andere als lineare Varianten wählen! Derartige Probleme sind mitunter relativ einfach mittels der Funktional-gleichung der dynamischen Programmierung zu lösen.
Der Algorithmus Es sei K* (x0) der optimale Wert der Politik; es gilt dann K* (x0) = K0 (x0), wobei K0 (x0) durch folgende Funktionalgleichung bestimmt ist (von n-1 nach 0 gehend!): Kn (xn) = gn (xn) Kk (xk) = inf {gk (xk, bk, wk) + Kk+1 (gk(xk, bk, wk)} bk Bk (xk) k = 0, 1, ..., n-1 Jenes μk* = μk* (xk), welches die rechte Seite von obiger Funktionalgleichung für jedes xk und k minimiert, bildet als Tupel das optimale Kontrollgesetz: π = (μ0*, μ1*, ... μ*n-1)
Wir lösen nun obiges Beispiel: es gilt: K3(x3) = 0; (Endbestand soll 0 sein). Kk(xk) = min {bk + max (0, xk + bk - wk) + 3 max (0, wk - xk - bk) + 0 < bk < 2 - xk + Kk+1 (max (0, xk + bk - wk))} für K = 0, 1, 2, und xk, bk {0, 1, 2, } Lösung: Periode 3: Wir berechnen K3 (x3) für jeden der 3 möglichen Anfangsbestände: x2 = 0 K2 (0) = min {b2 + max (0, b2 - 2) + 3 max (0, 2 - b2)} = b2 = 0, 1, 2 b2 = 0 K2 (0) = 6 b2 = 1 K2 (0) = 4 b2 = 2 K2 (0) = 2
x2 = 1 K2 (1) = min {b2 + max (0, 1 + b2 - 2) + 3 max (0, 2 - 1 - b2)} b2 = 0, 1 b2 = 0 3 b2 = 1 1 x2 = 2 K2 (2) = min {0 + max (0, 2 - 2) + 3 max (0, 2 - 2 - 0)} = b2 = 0 b2 = 1 0 Periode 2 wir berechnen wieder K1 (x1) für jede der 3 verschiedenen Stadien x2 = 0, 1, 2, indem wir K2 (0), K2 (1) und K2 (2) aus der vorhergehenden Analyse verwenden! x1 = 0 K1(0) = min {b1 + max (0, b1-3) + 3 max (0, 3-b1) + K2 (max (0, b1-3))} b1 = 0, 1, 2 b1 = 0 9 + 2 = 11 b1 = 1 1 + 6 + 2 = 9 b1 = 2 2 + 3 + 2 = 7
x2 = 1 K1(1) = min {b1+max (0,1+b1-3) + 3 max (0,3-1-b1)+K2 (max (0,1,+b1-3)} b1 = 0, 1 b1 = 0 8 b1 = 1 6 x2 = 2 K1 (2) = min {max (0, 2 - 3) + 3 max (0, 3 - 2) + K2 (0)} = 3 + 2 b1 = 0 b1 = 0 5 Periode 1: es gilt bekanntlich x0 = 0; w0 = 1 x0 = 0 K0 (0) = min {b0 + max (0, b0 - 1) + 3 max (0, 1, - b0) + K1 (max (0,b0-1))} b0 = 0, 1, 2, b0 = 0 3 + 7 = 10 b0 = 1 1 + 7 = 8 b0 = 2 3 + 6 = 9
Optimales Kontrollgesetz: π = (b0 = 1, b1 = 2, b3 = 2) Gesamtlagerkosten = 8 Nachweis durch Vorwärtsrechung: 1. Periode: x0 = 0 b0 = 1 w1 = 1 1 2. Periode: x1 = 0 2 b1 = 2 w2 = 3 3 8 gesamt 3. Periode: x2 = 0 b2 = 2 w2 = 2 2
Bemerkung: 1) A) Es wäre keinerlei Schwierigkeit, die Problemstellung für ein Maximierungsproblem mit einer allgemeinen Kostenfunktion abzuändern, z. B.: n-1 K (x0) = β exp (α (gn (xn) + gk (xk, uk wk))) k=0 Je nach Wert der Konstanten β, α ist diese Kostenfunktion (Nutzenfunktion) durch Risikofreude β > 0; α > 0 oder Risikoaversion β < 0; α > 0 bestimmt. B) Auch mehrfache Zielsetzung kann eingeführt werden.
2) Der Zeithorizont muss nicht endlich sein und die Zeit nicht diskret. α) Zeithorizont unendlich In solchen Fällen wird dann meist ein anderes Zielkriterium zu verwenden sein. Sehr häufig verwendete Varianten: A) Maximierung der diskontierten Summe der Stufenauszahlungen: Kt λt-1 t=1 B) Maximierung der langfristigen Durchschnittsauszahlung: T min 1 μt T T t=1 β) Zeit stetig
3) Es können stochastische Größen in den Prozess eingehen A) wi ist Zufallsvariable: Ansatz wie oben; Funktionsgleichung wird bei Diskreten zu einfach gewichtet. B) Systemfunktion ist Markoff‘scher Prozess; d.h. die Obergänge in verschiedene Werte xi+1 finden nur mit gewisser Wahrscheinlichkeit statt; erwartetes Verhalten ist zu errechnen.
III. ENTSCHEIDUNG OHNE INFORMATIONSBESCHAFFUNG A) Einstufige Entscheidungsprozesse Möglichkeit unter Unsicherheit Ausgangsbasis: - A = Menge der Aktionen (hier: endlich) - Z = Menge der Zustände (hier: endlich) - X = (A x Z) = Menge der Konsequenzen auf X existiert eine schwache Präferenzrelation (vollständig, transitiv) - Es existiert eine Abbildung, die kardinale Nutzenfunktion: u : A × Z 1
Wir gehen im folgenden davon aus, dass sich der Entscheidungsträger nicht durch zusätzliche Investitionen in Informationsbeschaffungsprozesse informieren müsse, sondern auf Grund einer vorgegebenen Datenkonfiguration entscheiden müsse. Die Entscheidung bestehe in der Auswahl einer „besten“ Alternative! BWL unterscheidet: 1) Entscheidung unter Ungewissheit 2) Entscheidung unter Unsicherheit (es sind Zustandswahrscheinlichkeiten bekannt und diese werden in die Entscheidung einbezogen! Wir treffen hier diese Unterscheidung nicht!
1) ENTSCHEIDUNGSREGELN (j J (= {1, 2, .... n}); i I (= {1, 2, .... m}) 1) Maximin-Regel (auch Wald-Regel) Jeder Aktion ai wird eine Zahl mi nach AI MI = min u (ai, zj) (Minimum über Zustände) zugeordnet. j J Dann bestimmt man M = max mi = max min u (ai, zj) i I i I j J Eine Aktion ai für die gilt mi = M heißt Maximin-Regel-Aktion (Minimax- Verlust-Aktion). Bemerkung: Diese und die folgenden Auswahlregeln leisten also zweierlei: 1) Sie definieren in der Menge A eine schwache Präferenzrelation 2) Sie liefern ein „größtes“ Element (d. h. ein Element, dem kein anderes vorgezogen wird) von A.
Problematik: Pathologischer Pessimismus (Krelle) Beispiel: Z0 Z1 Z2 a1 0,9999 10000 10000 a2 1 1 1 Nach obiger Regel gilt: a2 a1 (Auf Verlustfunktionen - U Minimax-Verlust-Regel) ~
Die geometrische Interpretation der Maximin-Regel Ist die Zustandsmenge Z endlich, d. h. es gilt |Z| = n, dann kann die Menge der Aktionen als Punktmenge in N gezeichnet werden. Beispiel: α) Z1 Z2 β) Z1 Z2 a1 12 12 a1 0 10 a2 10 6 a2 2 7 a3 8 8 a3 8 2 Z1 12 . a1 10 a2 . . a3 10 Z2 Z1 . a3 . a2 a1 Z2 Q(v) Q (v) Q(v) = {(x1, .... xn) | min xj > V} j J
Die Punkte a A, welche „zuletzt“ auf dem Rand Q (v) liegen, bei Verschiebung von Q (v) in Richtung v, sind Maximin-Aktionen; Bemerkung: es können auch mehrere Punkte sein. α) a1 β) a3, a2
2.) Die Minimax-Regret-Regel (auch Savage-Niehans-Regel) Bildet zunächst aus der Entscheidungsmatrix die Opportunitätskostenmatrix mit den Elementen sij = max u - u k kj ij Spaltenmaximum Die Zahl sij kann als „Maß des Bedauerns“ aufgefasst werden, wenn ai gewählt wurde und man dann erst erfährt, welcher Zustand Zj nun tatsächlich eingetroffen ist. Auf die Opportunitätskostenmatrix wendet man das Minimax-Verfahren an: mi = max sij (Zeilenmaximum von S) j J M‘ = min mi‘ = min max s (ai, zj) i I i I j J
Die Aktion, für die m‘i = M‘ gilt, heißt Minimax-Regret-Regel (Name kommt von Verlustinterpretation) Beispiele: α) Opportunitätskostenmatrix z1 z2 z1 z2 max. a1 12 12 a1 0 0 0 - min a2 10 6 a2 2 6 6 a3 8 8 a3 4 4 4 max 12 12 β) Opportunitätskostenmatrix a1 0 10 a1 8 0 8 a2 2 7 a2 6 3 6 - min a3 8 2 a3 0 8 8 max 8 10
α) β) Q‘(v) = {x1, x2, ... xn) | max xj v} j J a1 ist „beste“ Aktion! α2 ist „beste Aktion!
Die durch diese Regel eingeführte schwache Präferenzrelation ist dann oft ai aj, wenn m‘i > m‘j. ~ Kritisches Beispiel: Opportunitäts- kostenmatrix Z1 Z2 Z3 .... Z1000 Z1 Z2 Z3 .... Z1000 max a1 1 0 0 .... 0 a1 0 1 1 .... 1 1 a2 0 1 1 .... 1 a2 1 0 0 .... 0 1 a1 ~ a2 nach Savage-Niehans-Regel! Grund: Es gehen keine Größenverhältnisse wie „Anzahl der Umweltzustände“ usw. ein. (ähnlich: Minimax-Regel)
3) Die Bayes‘sche Entscheidungsregel Versuch einer Einbeziehung der Zustandseintreffensplausibilität: Bewertung der Zustände (mit Wahrscheinlichkeiten!) Möglichkeiten zur Bewertung der Eintreffensplausibilität: A) Anerkannte Wahrscheinlichkeitsgesetze und anerkannte Erfahrung Beispiel: 1) Telefonanrufe je Zeiteinheit sind nach Poisson verteilt: E-λ λx : x = 0, 1, .... x! 2) Glücksspiele u.a.m. B) Wahrscheinlichkeit muss geschätzt bzw. ermittelt werden: 1) Simulationsversuche zur Ermittlung der Wahrscheinlichkeiten 2) Das Einsetzen eigener (indiv. oder gremialer) Erfahrung zur Festlegung von Wahrscheinlichkeiten subjektive Wahrscheinlichkeitsermittlung.
Subjektive Wahrscheinlichkeit Ziel: Ermittlung der Wahrscheinlichkeiten für Ereignisse, deren „objektive“ Wahrscheinlichkeiten nicht bekannt sind, aufgrund der Informationen (und) der Erfahrung des Entscheidungsträgers. Ausgangspunkt: 1) Menge von Ergebnissen (Stichprobenraum): S 2) Menge von Ereignissen: P (S) (für endliches |S|) 3) Auf der Menge der Ereignisse sei eine schwache Präferenzrelation für jedes Paar A, B P (S) erklärt. Gilt A B, so sagen wir, B trifft mindestens ebenso wahrscheinlich ein als A. Definition: Eine Wahrscheinlichkeitsverteilung W für die gilt: W (A) < W (B) genau dann, wenn A B stimmt mit der Relation überein. Problem: Angabe der Bedingungen, die erfüllt werden müssen, damit eine einzige Wahrscheinlichkeitsverteilung existiert, die diese erfüllt. < ~ < ~ < ~ < ~
Zu treffende Annahmen: A < B A ist nicht wahrscheinlicher als B! ~ SW1: Für zwei beliebige Ereignisse A und B muss genau eine der folgenden 3 Relationen gelten: A B B A (Zusammenhang) A ~ B SW2: Für vier Ereignisse A1, A2, B1, B2 gelte: A1 A2 = B1 B2 = Ø und Ai Bi (i = 1, 2). Dann folgt A1 A2 B1 B2 und falls entweder A1 B1 oder A2 B2 dann folgt A1 A2 B1 B2 < ~ < ~
< ~ SW3: Sei A irgendein nicht-leeres Ereignis, so gilt Ø A. Zudem gilt Ø S (S = Elementarereignismenge, Stichprobenraum). SW4: Ist A1, A2 ... eine abnehmende Folge von Ereignissen und B sei ein bestimmtes Ereignis, für das gelte: Ai B (für i = 1, 2, ...). Dann folgt Ai B. i = 1 Kraft, Pratt, Seidenberg 1959: Antwort auf Frage von B. de Finetti und L. Savage, ob diese Bedingungen genügen, damit immer zumindest eine Wahrscheinlichkeitsverteilung existiert, die mit einer Relation , die SWi (i = 1, 2, 3, 4) erfüllen, ÜBEREINSTIMMT: NEIN! Daher ist eine 5. Annahme erforderlich: ~ > ~ < ~
SW5:. Es existiert eine Zufallsvariable mit einer Gleichverteilung SW5: Es existiert eine Zufallsvariable mit einer Gleichverteilung in [0,1]. Bemerkung: Es gelte für ein beliebiges Intervall I = [a, b]: λ (I) ist die Länge (b - a) des Intervalls. Wir definieren nun eine Gleichverteilung ohne Angabe von Wahrscheinlichkeiten. Definition: Sei X eine Zufallsvariable 0 < X (s) < 1 (s S). Die Zufallsvariable X heißt gleichverteilt in [0, 1], wenn folgende Eigenschaft gilt: Für I1, I2 [0, 1] gilt {x I1} {x I2} genau dann, wenn λ (I1) < λ (I2) gilt. Aufgabe von Annahme SW5: Die Zuordnung von numerischen Wahrscheinlichkeiten ist manchmal schwer möglich; z.B. gelte A Ac . Um die Wahrscheinlichkeit von A festzustellen, genügt es, ein Ereignis {x I} zu finden, für das gilt: {x I} ~ A. < ~
Hierdurch ist eine Verteilung W auf S konstruierbar. Nun kann man zeigen: Satz 1: Sei A ein Ereignis, so existiert eine einzige Zahl a* (0 < a* < 1), sodass A ~ {x (0, a*)} Hierdurch ist eine Verteilung W auf S konstruierbar. Satz 2: W stimmt mit auf S überein. Satz 3: Erfüllt " " SW1 - SW5, so ist die nach Satz 1 konstruierte Verteilung W die einzige Verteilung, die übereinstimmt. Literatur: z.B. DeGroot M., Optimal Statistical Decissions, McGraw-Hill 1970. < ~ < ~
Die Bayes‘sche Entscheidungsregel — Fortsetzung Während die Maximin-Regel noch mit ordinalem Nutzenindex ihr Auslangen gefunden hätte, fordern die Minimax-Regret-Regel und auch die Bayes-Entscheidungsregel bereits eine kardinale Nutzenfunktion. Die Anwendbarkeit der Regel fordert noch zusätzlich das Vorliegen eines Wahrscheinlichkeitsvektors n (w1, w2, ... wn) ( wj = 1) j=1 Für das Eintreffen der Zustände Z1, Z2, .... Zn.
Vorgangsweise: Man ermittelt den erwarteten Nutzen für jede Aktion AI: n (ai) = wj uij j=1 Man bestimmt dann jene Aktion a*, für die gilt: φ (a*) = max φ (ai) (bei Verlusttafel: min!) aiA Definition: a* heißt Bayes-Aktion zur Bewertung (w1, w2, .... wn).
Die Bayes-Entscheidungsregel gewinnt u. a Die Bayes-Entscheidungsregel gewinnt u.a. auch dadurch an Bedeutung, dass es Feststellungen gibt, die von der Form der a priori Verteilung unabhängig sind! Definition: Eine Aktion a A heißt Bayes-Aktion, wenn es eine Bewertung gibt, für die a zur optimalen Aktion wird! Behauptung: Jede Bayes-Aktion berechnet aus einer Verlusttafel ist gleich der Bayes-Aktion, berechnet aus der zugehörigen Regrettafel.
Nachweis: Es gilt: * (ai) = wj (-u (ai, zj)); jJ Weiters gelte: ‘ (ai) = wj s (ai, zj) = = wj (max {ukj} - uij) = jJ kJ = (wj max {ukj} - wj uij) = C (gew. Spaltenmaxima) + (ai) Nun gilt: a*i = min * (ai) = max (ai) (=Bayes-Regel) Aber auch: a*i = min (C + * (ai)) = min (C - (ai)) d.h. also, die gestiftete Ordnungsrelation ist die gleiche!
Beispiel 1): Bewertung (w1 = 0,2; w2 = 0,8); Entscheidungstafel Regrettafel Z1 Z2 Z1 Z2 a1 12 12 a1 0 0 a2 10 6 a2 2 6 a3 8 8 a3 4 4 Bewertung (0, 2, 0, 8): (a1) = 2,4 + 9,6 = 12 ‘ (a1) = 0 (a2) = 2 + 4,8 = 6,8 ‘ (a2) = 0,4 + 4,8 = 5,2 (a3) = 1,6 + 6,4 = 8 ‘ (a3) = 0,8 + 3,2 = 4,0 a* = a1 a* = min ‘ (ai) = a1 C = 12
Beispiel 2): w1 = 0,2 w2 = 0,8 Regrettafel: Z1 Z2 Z1 Z2 a1 0 10 a1 8 0 a2 2 7 a2 6 3 a3 8 2 a3 0 8 (a1) = 8 - max ‘ (a1) = 1,6 - min (a2) = 6 ‘ (a2) = 3,6 (a3) = 3,2 ‘ (a3) = 6,4 a* = a1 a* = a1 C = 0,2 8 + 0,8 10 = 9,6
Bemerkung: Sehr interessant ist auch die umgekehrte Fragestellung: Für welche Bewertungen sind a1, a2 und a3 Bayes-Aktionen? Wir nehmen zur Bestimmung die Verlusttafel (neg. Nutzentafel). Regrettafel: w1 w2 w1 w2 Z1 Z2 Z1 Z2 a1 0 10 a1 8 0 a2 2 7 a2 6 3 a3 8 2 a3 0 8
Offenbar gilt: Für w2 = 1 und w1 = 0 : a* = a1 Für den Zwischenbereich gilt (z. B. w1 = 0,5; w2 = 0,5 : a* = a2) Wegen w2 = 1 - w1 genügt es zunächst, die Grenzen in a1 zu finden: a* = a1 a* = a2 a* = a3 1. Grenze: 8w1 = 6w1 + 3 (1 - w1) 5w1 = 3 w1 = = 0,6 2. Grenze: 8w2 = 6 (1 - w2) + 3w2 8w2 = 6 - 6w2 + 3w2 8w2 + 3w2 = 6 w2 = w1 = 0,4545 0,6 w1=1 3 5 6 11 5 11
Graphisch: w1 = w w2 = 1 - w1 Z1 Z2 a1 0 10 a2 2 7 a3 8 2 (a1,w) I…(?) Lösung (5/11, 6/11) (a3,w) (a3) (a2,w) (a2) (a1) min-Regretwert = max Nutzen = min Verlust 0,5 0,6 0,4545 1 w
Regrettafelrechnung = Nutzentafelrechnung 3 = 5w w = 0,6 3 Gleichungen: 0w + 10 (1-w) = 10 - 10w = (a1, w) 2w + 7 (1-w) = 7 - 5w = (a2, w) 8 = 16w w = ½ 8w + 2 (1-w) = 2 + 6w = (a3, w) 5 = 11w w = 5/11 Spieltheoretische Betrachtung: Randomisierung: Könnte ein „Gegner“ den Bewertungsvektor wählen, so würde er ihn so wählen, dass die beste Aktion möglichst nieder bewertet wird.
Beispiel 2 Z1 Z2 a1 0 10 a2 2 7 Verlusttafel a3 8 2 Beispiel: 0,8 = w1 0,2 = w2 Bayes-Aktion ai
Geometrische Deutung (|Z| = 2) (b1) Bayes-Aktion A1 -u.1 = -u.2 (b3) (b2) A2 (b3, b3) = (φ (a3), φ (a3)) b2, b2 Geometrische Deutung (|Z| = 2) (z. B. müssten bei w1 = 0,5 a1 und a3 auf ε (b) liegen!)
Bayes-Entscheidung (bei Maximierung) (a1) = 2 - min (a2) = 3 (a3) = 6,8 Bezeichnung: (bi) w1 ui1 + w2 ui2 = bi Bemerkung: (bi) schneidet die Gerade u.1 = u.2 im Punkt (bi, bi); da ja gelten muss p x1 + (1-p) x2 = bi für x1 = x2 = x (p+1-p) x = bi 1 Schnittpunkte mit den Koordinaten: dort wo w1 ui1 = (ai) bzw. w2 ui2 = (ai)
Andere (abgeleitete) Entscheidungsregeln Bayes-Aktion: Jene, die bei Verschieben in positiver Richtung u.1 = u.2 die letzte Aktion ist, die von (b) berührt wird! (Bei Verlusttafel - die erste Aktion) Andere (abgeleitete) Entscheidungsregeln 1) Laplace-Regel: Spezielle Bewertung der Zustandswahr- scheinlichkeiten mit wi = (i = 1, 2, .... n) Also: Spezialfall der Bayes-Regel Praktisch genügt es, den Faktor 1/n wegzulassen; es gilt dann: n (ai) = uij j=1 Bemerkung: Hinzufügen einer identischen Spalte kann beste Aktion ändern: -1 3 -1 3 3 a1 a2 3 0 3 0 0 1 – n
2) Die Maximax-Regel: Auswahlfunktion: (ai) = max uij jJ Man wählt dann diejenige Aktion, die (ai) maximiert: a* = max (ai) ai A Einwand: Pathologischer Optimismus
3) Optimismus-Pessimismus-Regel (Hurwicz-Regel) Es gelte für die Auswahlfunktion: (ai) = max uij + (1 - ) min uij jJ jJ a* = max (ai) aiA Bemerkung: Für = 1 entspricht sie Maximax-Regel; Für = 0 entspricht sie Maximin-Regel; Also Kompromiss! Empirische Ermittlung des Wertes von : man stelle dem Entscheidungsträger folgendes Problem: Z1 Z2 a1 1 0 a2 x x
Er möge x derart festlegen, dass er zwischen a1 und a2 indifferent ist. Nun gilt: (a1) = also x = ! (a2) = x Bemerkung: Hurewicz-Regel erfordert kardinale Nutzenmessung, da sie gegenüber monotonen Transformationen nicht indifferent ist! Ähnliche Problematik wie bei Minimax: Z1 Z2 Z3 Z4 Z5 Z6 Z7 ... Zn a1 0 1 1 1 1 1 1 ... 1 a2 1 0 0 0 0 0 0 ... 0
4) Hodges-Lehmann-Regel Es gelte mi = min u (ai, zj); u (ai) = pj uij jJ jJ Für die Bewertungsfunktion gilt dann: (ai) = (1 - ) mi + u (ai) a* = max (ai) aiA Bemerkung: Wird insbesondere für unsichere Zustandswahrscheinlichkeiten gerne verwendet! Die Hodges-Lehmann-Regel ist ein Kompromiss zwischen der Bayes- und der Maximin-Regel. Gilt = 1 Bayes-Regel = 0 Maximin-Regel
5) Krelle-Regel Krelle schlägt vor, 2 Dinge zu trennen: a) Die Scheu vor Unsicherheit - ausgedrückt durch eine Unsicherheitspräferenzfunktion - (Ermittlung analog zur kardinalen Nutzenfunktion): b) Die (kardinalen) Nutzenwerte (praktisch jedoch homogenen Einheiten; z. B. Geld): uij Entscheidungsregel: (ai) = (uij) jJ a* = max (ai) aiA Krelle bewertet praktisch wie Laplace mit 1/n, da er summiert! Unsicherheitspräferenzfunktion
Bemerkung: Die Entscheidungsregel entspricht der Laplace-Regel mit gewichtetem Nutzen; da jedoch anstelle des Nutzens ein homogenes Gut, z.B. Geld, gemeint ist, entspricht diese Entscheidungsregel der Laplace-Regel (Wichtung = Nutzenbewertung). Abschluss: Alle Regeln sind gegenüber linearen Transformationen invariant! (Minimax-Regel: invariant gegenüber monotonen Transformationen)
Beispiele: 1) (aus Bamberg, Coenenberg) Ein Unternehmen habe für drei zur Debatte stehende Aktionen folgende Entscheidungsmatrix ermittelt: Zustände Aktion Z1 Z2 Z3 Opportunitätskostenmatrix: a1 20 90 30 40 30 0 a2 50 120 0 10 0 30 a3 60 30 30 0 90 0
Wie lautet die optimale Aktion bei Verwendung von: a) Maximin-Regel b) Maximax-Regel c) Hurwicz-Regel ( = 0,3) d) Laplace-Regel e) Savage-Niehans-Regel f) Krelle-Regel g) Hodges-Lehmann-Regel ( = 0,2) h) Bayes-Regel (w1 = 0,3; w2 = 0,6; w3 = 0,1) Maximin schlägt durch!
2) Dominanzrelationen auf der Aktionenmenge Entscheidungsregel: Abbildung von A in die reellen Zahlen! Mittels der Ordnung der reellen Zahlen wurde in A eine vollständige Ordnungsrelation eingeführt! Allerdings je nach Entscheidungsregel verschiedene Anordnungen möglich! Definition: A) Die Aktion ai DOMINIERT die Aktion Ak, wenn u (ak, z) < u (ai, z) gilt (reflexiv, antisymmetrisch, transitiv) für alle z. B) Die Aktion ai DOMINIERT STRENG die Aktion ak, wenn A) gilt und zusätzlich: u (ak, z) < u (ai, z) für mindestens ein z gilt! (irreflexiv, asymetrisch, transitiv) C) Zwei Aktionen werden als gleich bezeichnet, wenn gilt: u (ai, z) = u (ak, z) für alle z (nicht trivial, da aus der Gleichheit des Nutzens (und nicht der Konsequenzen) die Gleichheit ai = ak definiert wird.)
Eine wichtige Eigenschaft: Die Dominanzrelation stimmt mit den Auswahlregeln r überein; d.h. aus ak ai folgt ak rai (nicht unbedingt umgekehrt!) Definition: A) Eine Aktion heißt ZULÄSSIG, wenn sie von keiner Aktion streng dominiert wird. B) Eine Menge von Aktionen B A heißt VOLLSTÄNDIG, wenn jede Aktion außerhalb von B von einer Aktion in B streng dominiert wird. C) B A heißt MINIMAL VOLLSTÄNDIG, wenn sie keine echte Teilmenge enthält, die ebenfalls vollständig ist. Bemerkung: Endliche Aktionenmengen haben immer minimale vollständige Aktionenteilmengen; (unendliche nicht!) ~ ~ ~
• a2,a3 Minimale vollständige Aktionenmenge • a4 a5 a6 • • u2 Umwelt Beispiel: u1 a1 • • a2,a3 Minimale vollständige Aktionenmenge • a4 a5 a6 • • u2 Umwelt Aktionen Z1 Z2 a1 9 5 a2 8 7 a3 8 7 a4 6 6 a5 4 8 a6 4 7
Vollständige Aktionenmengen (in obigem Beispiel): {ai (i = 1, 2, .... , 6)} Komplement: und ({a1, a2, a3, a4, a5}, {a1, a2, a3, a5, a6}, {a1, a2, a3, a5}) Minimale vollständige Aktionenmenge: {a1, a2, a3, a5} ! Nicht hingegen: {a1, a2, a5} oder {a1, a3, a5} (a2 bzw. a3 werden von keiner Aktion streng dominiert) B5 B6
Daher: Definition: a) Eine Aktionenmenge B heißt wesentlich vollständig, wenn jede Aktion außerhalb von B von einer Aktion in B dominiert wird! (nicht STRENG DOMINIERT) b) B heißt minimal wesentlich vollständig, wenn B keine ebenfalls wesentlich vollständige Teilmenge enthält! z.B.: B5 und B6 sind wesentlich vollständige Aktionenmengen, jedoch nicht vollständig!
Beispiel: a) Aktionenmenge, die - keine minimale vollständige Aktionenmenge und - keine zulässigen Aktionen besitzt. Z1 Z2 a1 0 0 a2 1/2 1/2 a3 3/4 3/4 . . . an n/n+1 n/n+1 Hat auch keine Bayes-Aktion! (keine kleinste Zahl!) Grund: Häufungspunkt (1,1) gehört nicht zur Aktionenmenge, da diese Menge OFFEN ist! 1 • a6 • a5 • a4 • a3 • a2 • a1 1
b). Aktionenmenge, deren zulässige Aktionenmenge nicht minimal b) Aktionenmenge, deren zulässige Aktionenmenge nicht minimal vollständig ist. Umwelt Aktionen Z1 Z2 a0 3/2 1/2 a1 0 0 a2 1/2 1/2 a3 3/4 3/4 a4 4/5 4/5 . . . Wichtiger Satz: Existiert eine minimale vollständige Aktionenmenge, so ist sie eindeutig bestimmt; sie besteht dann gerade aus der Menge aller zulässigen Aktionen. Beweis: s. Ferschl. S. 76
GEMISCHTE AKTIONEN Einführungsbeispiel: Betrachten wir folgendes Problem: Ein Besitzer einer Galerie kann für ein junges Talent, dessen Werke er vertreibt a1) eine Ausstellung organisieren a2) einige Werbeaktionen organisieren und dann ausstellen mit 1 ½ Jahren Verzögerung a3) sich an einer jährlichen Sammel-Förderungsausstellung beteiligen.
Matrix Z1 Z2 a1 30 6 a2 10 20 Bisher Maximin: a3 15 8 a* = a2 Z1 = entspricht dem durchschnittlichen Geschmack Z2 = wird eher abgelehnt 30 • a1 20 • a3 10 • a2 10 20 30 Frage: Der Besitzer der Galerie fragt sich, da er wiederholt vor diesem Problem steht, ob er am besten entscheidet, wenn er immer a2 wählt.
Alternative: Entscheidungsträger wählt gemischte Aktionen; d. h. er wählt die Aktionen nur mit gewissen Wahrscheinlichkeiten p1, p2, p3. Die Aktion ist dann so zu schreiben: p1 p2 p3 a‘ = ( pi = 1; pi > 0) a1 a2 a3 Menge der einfachen Aktionen Der Nutzen der Aktion a‘ ermittelt sich dann aus dem Erwartungswert über die einzelnen Spalten: 0,5 0,5 0 z. B. a‘ = a1 a2 a3
Das Nutzentupel erhält man aus (u11 p1 + u21 p2 + u31 p3, u12 p1 + u22 p2 + u32 p3): = (15 + 5, 3 + 10) = (20, 13) Bemerkung: 1) Die Aktion a‘ dominiert a3 2) Die Aktion a‘ ist die optimale Maximin-Aktion! Z1 Z2 Minima der Zeilen a1 30 6 6 a2 10 20 10 a* 20 13 13 - max a* = a‘ nach Maximin-Kriterium
Wir untersuchen dieses Phänomen mit intuitiven Argumenten genauer: Definition: Die Menge der gemischten Aktionen A* ist die Menge aller Aktionen vom Typ p1 p2 ... pm a1 a2 ... am m pi = 1 und 1 > pi > 0 p=1 „Reine“ Aktionen sind also Spezialfälle!
Bemerkung:. Die Realisierung von gemischten Aktionen kann z. B. so Bemerkung: Die Realisierung von gemischten Aktionen kann z.B. so erfolgen: Q wurde erzeugt, implizit A2 ist zu wählen! a1 a2 m-1 rp1 (p1+p2)r . . . . ( pi) r gesuchte Zufallszahl Q pi=1 Man erzeugt eine genauso gleichverteilte Zufallszahl Q in [0, r] und wählt jene Aktion, in deren Intervall Q fällt!
Konstruktion des neuen Entscheidungsproblems: u: A* Z 1 u (a*, z) ist der Nutzen, der eintritt, wenn a* gewählt wird! Es gibt allerdings unendlich viele Aktionen a* A*. Wir definieren: m m m u (a*, z) = ( pi u (ai, z1), pi u (ai, z2), ... , pi u (ai, zn)) i=1 i=1 i=1 Als Nutzentupel von a*. (Dies ist möglich auf Grund der Lotterieeigenschaften des Erwartungsnutzens!)
Geometrische Interpretation Merksatz: 1) Eine gemischte Aktion ist eine konvexe Linearkombination aus reinen Aktionen. 2) Die Menge A* ist gleich der konvexen Hülle der Menge A der reinen Aktionen! Obiges Beispiel: • • • •
Z1 Z2 a1 30 6 a2 10 20 a3 15 8 Optimale gemischte Maximin-Aktion: a*opt ~ (17,4; 17,4) Definition: Gilt a*opt = (c, c, ..., c) (c 1), so nennt man a*opt Equalizer-Aktion! Ermittlung der Wahrscheinlichkeiten unserer Equalizer Aktion a*opt: Bewertung: p1u11 + p2u21 = p1u12 + p2u22 p1 (u11 - u21) + p2 (u12 - u22) = 0 p1 + p2 = 1 Gleichungssystem mit zwei Unbekannten kann nach p1, p2 aufgelöst werden.
Obiges Beispiel: 30p1 + 10p2 = 6p1 + 20p2 24p1 - 10p2 = 0 Also: 10p1 + 10p2 = 10 24p1 - 10p2 = 0 34p1 = 10 p1 = ; p2 = Die optimale Minimax-Aktion a*opt ist daher a*opt = ( ) Mit dem Wert: ( • 30 + 10 • , • 6 + 20 • ) = ( , ) (17.4, 17.4) 5 — 17 12 — 17 5/17 12/17 a1 a2 5 — 17 12 — 17 5 — 17 12 — 17 270 —– 17 270 —– 17 – ~
Savage-Niehans-Regel und gemischte Aktionen Regret-Werte Es gibt also auch hier Equalizer-Aktionen: a*opt
Bayes-Aktionen und gemischte Aktionen m n Beispiel: (a*) = pi wj u (ai, zj) i=1 j=1 Bei der Bewertung (w1, w2) ist a3 Bayes-Aktion
Aus diesem Beispiel ersieht man (beweisbar!): Existiert eine gemischte Bayes-Aktion, so gibt es zugleich eine reine Aktion zur gleichen Bewertung der Bayes-Aktion. D. h. auf der Suche nach einer Bayes-Aktion müssen wir die gemischten Aktionen nicht berücksichtigen! Bemerkung zur Ermittlung allgemeiner gemischter Maximin-Aktionen: a) Mittels des Lösungsinstrumentariums der Theorie der 2-Personen- Nullsummenspiele möglich! b) Bei Maximin-Aktionen kann natürlich auch nur eine reine Aktion die optimale Aktion sein. aopt (Diese muss keine Equalizer-Aktion sein!)
VIII. Bayes‘sche mehrstufige Entscheidungen unter Unsicherheit ohne VIII. Bayes‘sche mehrstufige Entscheidungen unter Unsicherheit ohne Informationsbeschaffung Wir wählen als Ausgangsbeispiel wieder das Lagerhaltungsproblem aus dem Kapitel „mehrstufige Entscheidungen bei Sicherheit“ (Nachfrage) wk Externe Störung (stochastisch) Bestellung = bk xk = Lagerbestand S (Steuerbereich) k (xk) = bk
Algorithmus: k0 (x0) ist der optimale Wert der Politik und es gilt (von N - 1 nach 0 gehend): kk (xk) = inf E {g (xk, bk, wk) + Kk+1 (fk (xk, bk, wk))} bkbk (xk)k K = 0, 1, ... N - 1 Jenes *k = *k (xk), welches die rechte Seite von obiger Funktionalgleichung minimiert, bildet das optimale Kontrolltupel: = (*0, *1, ... *n-1) (E steht für Erwartungswert)
Wir lösen nun obiges Beispiel unter der Annahme, dass wir die Verteilung der wi je Periode kennen und dass über das tatsächliche Eintreffen des Bedarfs keine zusätzliche Information eingeholt werden könne: Es gelte: Lagerkapazität (xk + bk) : 0 < xk + bk < 2 Planungshorizont: 3 Perioden Lagerkosten: h = 1 Bestellkosten: c = 1 Kosten des nicht erfüllten Bedarfs: 3 Bedarfsverteilung: W (wk = 0) = 0,1 W (wk = 1) = 0,7 W (wk = 2) = 0,2
Unsere Funktionalgleichung lautet: Anfangsbestand x0 = 0; Systemgleichung: xk + 1 = max (0,xk + bk - wk) nicht erfüllter Bedarf ist verloren! K3 (x3) = 0 Unsere Funktionalgleichung lautet: Bestellkosten Lagerkosten Kosten d. entgangenen Bedarfs Kk (xk) = min E {bk - max (0,xk + bk - wk ) + 3 max (0,wk - xk - bk) + 0<bk<2-xk {wk} bk = 0, 1, 2 Kosten d. nächsten Periode bei xk+1 + Kk + 1 (max (0, xk + bk - wk))} K = 0, 1, 2; xk, bk, wk {0, 1, 2}
Stufe 2: Wir berechnen K2 (x2) für jedes der drei möglichen Stadien: X2 = 0 K2 (0) = min E {b2 + max (0, b2 - w2) + 3 max (0, w2 - b2)} = bk=0,1,2, = min {b2 + 0,1 (max (0,b2) + 3 max (0 - b2)) b2=0,1,2 + 0,7 (max (0,b2 - 1) + 3 max (0, 1 - b2)) + + 0,2 ( max (0,b2 - 2 ) + 3 max (0,2 - b2))} Wir erhalten für: b2 = 0 3,3 (0,7 3 1 + 0,2 3 2) b2 = 1 1,7 (1 + 0,1 1 + 0,2 3 1) b2 = 2 2,9 (2 + 0,1 2 + 0,7 1) Also K2 (0) = 1,7; 2* (0) = 1 (opt. Bestellung)
X2 = 1 K2 (1) = min E {b2 + max (0, 1 + b2 - w2) + 3 max (0, w2 - b2 - 1)} = b2=0,1 = min {b2 + 0,1 (max (0,1 - b2) + 3 max (0 - 1 - b2)) + 0,7 (max (0,b2) + 3 max (0 - b2)) + 0,2 (max (0,b2 - 1) + 3 max (0, 1 - b2))} Wir erhalten für: b2 = 0 0,7 (0,1 1 + 0,2 3) b2 = 1 1,9 (1 + 0,1 2 + 2 + 0,7 1) Also K2 (1) = 0,7; 2* (1) = 0
Für X2 = 2, K2 (2) = E {max (0, 2 - w2) + 3max (0, w2 - 2)} w2 = 0,1 2 + 0,7 1 = 0,9 Also K2 (2) = 0,9; 2* (2) =0
Stufe 1. Nun berechnen wir K1 (x1), indem wir die oben berechneten Stufe 1 Nun berechnen wir K1 (x1), indem wir die oben berechneten Werte K2 (0), K2 (1), K2 (2) hierzu heranziehen. Es gilt (s. obige Funktionalgleichung!) X1 = 0 K1 (0) = min E {b1 + max (0,b1 - w1) + 3max (0,w1 - b1) + K2(max(0,b1-w1)} bk=0,1,2 w1 Wir erhalten: b1 = 0: E {.} = 0,1 K2 (0) + 0,7 (3 1 + K2 (0)) + 0,2 (3 2 + K2 (0)) = 5.0 b2 = 1: E {.} = 1 + 0,1 (1 + K2 (1) + 0,7 K2 (0) + 0,2 (3 1 + K2 (0)) = 3,3 b1 = 2: E {.} = 2 + 0,1 (2 + K2 (2)) + 0,7 (1 + K2 (1)) + 0,1 K2 (0) = 3,82 K1 (0) = 3,3; 1* (0) = 1
x1 = 1 min E {b1 + max (0, 1 + b1 - w1) + 3max (0, w1 - 1 - b1) + + K2 (max (0, 1 + b1 - w1))} b1 = 0 E {.} = 0,1 (1 + K2 (1)) + 0,7 K2 (0) + 0,2 (3 1 + K2 (0)) = 2,3 b1 = 1 E {.} = 1 + 0,1 (2 + K2 (2) + 0,7 (1 + K2 (1)) + 0,2 K2 (0) = 2,82 Also: K1 (1) = 2,3; 1* (1) = 0 x1 = 2 K1 (2) = E {max (0,2 - w1) + 3 max (0, w1 - 2) + K2 (max (0, 2 - w1))} = = 0,1 (2 + K2 (2) + 0,7 (1 + K2 (1) + 0,2 K2 (0) = 1,82 K1 (2) = 1,82; 1* (2) = 0
Stufe 0: Da der Anfangsbestand 0 ist, müssen wir nun K0(0) berechnen! X0 = 0 K0(0) = min E {b0 + max (0, b0 - w0) + 3max (0, w0 - b0) + b0=0, 1, 2 + K1 (max (0, b0 - w0)} b0 = 0 E {.} = 0,1 K1 (0) + 0,7 (3 1 + K1 (0)) + 0,1(3 2 + K1(0)) = 6,6 b0 = 1 E {.} = 1 + 0,1 (1 + K1(1)) + 0,7 K1(0) + 0,2 (3 1 + K1(0)) = 4,9 b0 = 2 E {.} = 2 + 0,1 (2 + K1(2)) + 0,7 (1 + K1(1)) + 0,2 K1(0) = 5,352 K0(0) = 4,9; 0*(0) = 1
D. h. die optimale Politik besteht in der Bestellung von 1 Stück (wenn Anfangsbestand 0 ist). Resumée: Bei stoschastischen Problemen bringt die Vorgangsweise von rückwärts (Rollback-Analyse) tatsächliche Vorteile, da das globale Optimum oft auf diese Weise ermittelbar ist. Bei deterministischen Problemen bringt dieser Typ von Vorgangsweise keinen unmittelbaren Vorteil und andere (?) Vorgangsweisen sind oft weniger rechenaufwendig (NLP, LP, Brand....(?) u.a.m.)
Praktisch äquivalent zu folgendem Tableau: Zi = (w1, w2, w3) Z1 = Z2 = Z27 = E(z) (0, 0, 0) (0, 0, 1). . (222) W (Z = zi) 0,001 0,007 0,008 a1 = (0, 0, 0) . . . . . . a2 = (0, 0, 1) . . . . . . . a27 = (222) . . . . . . E (Z) Bayes Gewählt wurde Bayes-Aktion! Ist allerdings die Verteilung stetig, wird die Berechnung der Bayes-Aktion auf diese Weise unmöglich! Man beachte auch den beträchtlichen Unterschied im Rechenaufwand!
IX. Information und Entscheidung - Unter besonderer Berücksichtigung Bayes‘scher Entscheidungen Unvollständige Informationen können bei Form...(?) Handlungsziel und Problem prinzipiell über beide „Koordinaten“ des Entscheidungsproblems herrschen: „Aktionsraum“ „Zustandsraum“ Entscheidungsproblem mit unvollständiger Information (Problem und Handlungsziele sind formuliert) Alternativensuchprozess Umweltsituationsfeststellungsprozess . . . . . . . . . . . . . . . . . . . Datenpräzisierung und Rechenmodellwahl zur Präzisierung der Alternativen-konsequenzen in den Umweltsituationen . . . . . . . . . . . . . Informationsaktivitäten zur Präzisierung der Eintreffenswahrscheinlichkeiten der Umweltsituationen . . . . . . . . Resultat: Entscheidungsmatrix
1) Adaptive Modelle A) mit langer Gültigkeit der Alternative Entscheidungsmodelle mit stochastischen Informationsbeschaffungsprozessen (mit Beschaffungskosten) Modelle zur Information über die Handlungsalternativen Modelle zur Information über die Umweltlagen Präzisierung der Daten über bekannte Alternativen Umweltlagener-mittlung (Suche) Präzisierung der Eintreffenswahr-scheinlichkeiten (-Vorstellungen) Alternativen-suche Simultane Alternativensuche und Datenpräzisierung Simultane Berücksichtigung der Suche und des Präzisierungsprozesses 1) Adaptive Modelle A) mit langer Gültigkeit der Alternative B) mit kurzer Gültigkeit der Alternative 2) Modelle mit „festen“ Verteilungen
Alternativengütebeurteilungskriterium: 1) Beitrag zum Ausmaß der Realisierung des Handlungsziels (Nutzen) 2) Rang bei Anordnung einer (endlichen) Anzahl von Alternativen nach ihrer „Güte“. 3) Optimalitätswahrscheinlichkeit bzw. Entropie (suchtheoretische Modelle u.a.m.). 1) Entscheidungsprozesse bei einstufigen Informationsentscheidungen 2) Entscheidungsprozesse bei mehrstufigen Informationsentscheidungen Informationsbeschaffung bei Auswahl nach dem Mini-Max-Kriterium Informationsbeschaffung bei Auswahl nach dem Bayes‘schen Kriterium u.v.a.
Hier werde zunächst nur das Problem der Informationspräzisierung über die (voraussichtlich) vorliegende Umweltlage bei verschiedenen Entscheidungskriterien betrachtet. A) Einstufige Entscheidungsmodelle bei Informationsmöglichkeit zur Präzisierung der Kenntnisse über die Zustände a) Experimente und Aktionen - der Begriff der Entscheidungsfunktion Wir kommen nun auf den Begriff des Informationssystems zurück, wie wir ihn zu Beginn eingeführt haben. Es existiere eine Informations- beschaffungsmöglichkeit mit einem Nachrichtenraum: Y = {yi|i = 1, 2, ... k}
„Beobachten“ wir yq, so können wir eine Wahrscheinlichkeitsverteilung „Beobachten“ wir yq, so können wir eine Wahrscheinlichkeitsverteilung {wjq|j = 1, 2, .... n} für die Zustandswahrscheinlichkeiten angeben: NACHRICHTEN Zustände y1 y2 . . . . . . . yk x1 w11 w12 . . . . . . . w1k x2 w21 w22 . . . . . . . w2k . . . . xn wn1 wn2 . . . . . . . wnk
Um nun das Informationsergebnis in das Entscheidungsproblem einzubeziehen, machen wir die Wahl einer Aktion vom Ergebnis des Informationsbeschaffungsprozesses abhängig: Definition: Es sei Y die Zufallsvariable mit dem Wertebereich Y = {y1, y2, ... yk}. Die Funktion d: Y A (x d(x)) heißt Entscheidungsfunktion! Bemerkung: Eine Entscheidungsfunktion ist bei endlichen Y und A einfach zu schreiben: y1 y2 ..... yk y1 y2 ..... yk d = ( ) = ( ) d(y1) d(y2) ..... d(yn) ai1 ai2 ..... aik d.h. also, liefert uns der stochastisch beeinflusste Informationsbeschaffungs-prozess die Nachricht yj, so handeln wir gemäß d(yj) = aij
Zustandsmenge: {Zi+1|i = 0, 1, 2, 3 Stücke sind nicht verwendbar} (Obiges) Beispiel: Eine Sendung von 3 Stück sei angekommen, es soll beurteilt werden, ob die Sendung zurückzuweisen ist. Zustandsmenge: {Zi+1|i = 0, 1, 2, 3 Stücke sind nicht verwendbar} Informationssystem: Y = {yj+1|j = 0, 1 Stück sind schlecht in einer Zufallsstichprobe vom Umfang 1} Matrix des Informationssystems: Zufallsstichprobe vom Umfang 1 Zustände NACHRICHTEN y1 y2 Z1 1 0 Z2 2/3 1/3 Z3 1/3 2/3 Z4 0 1 i 3-i ( ) ( ) j 1-j W (yj+1|Zi+1) = ———– 3 ( ) 1
Entscheidungsmatrix ohne Informationen mit einfachen Alternativen Z1 Z2 Z3 Z4 Annahme d. Sendung a1 100 60 20 -20 Ablehnung d. Sendung a2 -50 -20 0 0 Regrettabelle Z1 Z2 Z3 Z4 a1 0 0 0 20 a2 150 80 20 0 Transport: 20 Deckungsbeitrag pro Stück: 40 Kosten bei Ablehnung mit keinem mangelhaften Stück: 30 + Transport Kosten bei einem mangelhaften Stück: nur Transport mehr als einem Stück: 0
Entscheidungsfunktion: Es gibt |Y||A| (?) Entscheidungsfunktionen. y1 y2 Hier (22) : d1 = ( ) (d (y0) = a0; d (y1) = a0) usw. a1 a1 d2 = ( ) a1 a2 d3 = ( ) a2 a1 d4 = ( ) a2 a2
Wir ersetzen nun das einfache Entscheidungsproblem ohne Informationen durch folgendes Entscheidungsproblem mit Informationen (nach Umindizierung!): Wir nennen diese Tafel die Entscheidungstabelle für Entscheidungs-funktionen.
Definition: Mit bezeichnen wir die Menge aller Entscheidungsfunktionen. Es sei d eine Entscheidungsfunktion; dann gelte für den Nutzen je Entscheidungsfunktion d und Zustand Zi: u (d, zi) = u (d (y1), zi) W (y1| zi) + u (d (y2) , zi) W (y2| Zi) + ..... u (d (yk), zi) W (yk| zi) = k = u (d (yi), zi) W (yj | zi) j=1 Analog gilt in einer Regrettafel für die Regretwerte je Entscheidungsfunktion (d ): R (d, zi) = r (d (yj), zi) W (yj | zi)
Beispiel: Entscheidungstabelle der Entscheidungsfunktionen Zustände Entscheidungsfunktion Z1 Z2 Z3 Z4 d1 100 60 20 -20 d2 100 100/3 20/3 -20 d3 -50 20/3 40/3 0 d4 -50 -20 0 0 u (d1, Z1) = u (d (y1), Z1) W (y1 | Z1) + u (d (y2), Z1) W (y2 | Z1) = = u (a1, Z1) W (y1 | Z1) + u (a1, Z1) W (y2 | Z1) = = 100 1 + 100.0 = 100 u (d2 Z1) = u (a1, Z1) W (y1 | Z1) + u (a2, Z1) W (y2 | Z1) = = 100 1 + - 50.0 = 100 d1 dominiert d2 streng d3 dominiert d4 streng ... usw.
Bemerkung:. Das einfache Problem ohne Informationen ist auch in Bemerkung: Das einfache Problem ohne Informationen ist auch in der Entscheidungsfunktionstabelle enthalten: d1, d4! (= konstante Entscheidungsfunktionen!) Satz: Zur Bestimmung der Regret-Tafel genügt es, bei ermittelter Nutzentafel die Regrettafel aus der Entscheidungsfunktionstafel im üblichen Weg abzuleiten. Beweis: Ferschl S. 104, 105.
Beispiel: Entscheidungsfunktionsregrettabelle Kann aus einfacher Aktionsregrettabelle oder aus Entscheidungsfunktions-nutzentabelle ermittelt werden! Z1 Z2 Z3 Z4 d1 0 0 0 20 d2 0 80/3 40/3 20 d3 150 160/3 20/3 0 d4 150 80 20 0
b) Gemischte (randomisierte) Entscheidungsfunktionen Ganz analog zum einfachen Entscheidungsproblem kann man beim Entscheidungsfunktionsproblem gemischte Entscheidungsfunktionen d* einführen: d1 d2 ... dmk d* = ( ) p1 p2 ... pmk Vorgangsweise bei Wahl einer Aktion: I) Durchführung eines Zufallsexperiments, welches uns mit den Wahrscheinlichkeiten p1, p2, ... pmk die Indizes 1, 2, ... mk liefert; z.B. „s“. II) Durchführung des Informationsbeschaffungsprozesses mit dem Ausgang yj. Resultat: Wahl der durch ds(yj) bestimmten Aktion.
Beispiel: Z1 Z2 Z3 Z4 d‘1 100 60 20 -20 d‘2 -50 20/3 40/3 0 Es gelte für die gemischte Entscheidungsfunktion d*: d‘1, d‘2 d* : ( ) 1/6 5/6 Ausführung: 1) Wir werfen einen Würfel; werfen wir eine 1, so gelte s = 1; sonst gelte s = 2. 2) Wir „ziehen“ ein Element aus der Sendung (Zufallsstichprobe). Dieses Element sei fehlerhaft. Folglich: zu realisierende Aktion d‘2 (y2) = a1 Ablehnung.
Die Frage, ob eine gemischte Entscheidungsfunktion zur Effizienzerhöhung beitragen kann, kann ganz analog zur Frage bei einfachen Aktionen beantwortet werden. Bei allen Entscheidungsregeln, die die Maximin-Regel bzw. die Minimax-Regel verwenden, kann eine solche Verbesserung erfolgen. Entscheidungs- Zustände funktion x1 x2 d1 0 30 d2 0,5 0,6 d3 9,5 29,4 d4 10 0 Beispiel:
d1 d2 d3 d4 d‘ = W3 d3 + W4 d4 = ( ) (W4 = 1 - W3) 0 0 W3 W4 Hier erhalten: w (9,5 29,4) + (1 - w) (10 0) = (b b); also 9,5w + 10 (1 - w) = 29,4w w 1/3
c) Bayes-Entscheidungsfunktionen Grundannahmen: 1) Existenz eines Vektors Z1 Z2 .... Zn ( ) (Wi = 1) W1 W2 .... Wn Von Wahrscheinlichkeiten für das Eintreffen der Zustände Zi. 2) Existenz einer Informationsquelle mit dem Informationsraum (Nachrichtenraum) Y = {y1, y2, .... yk} Für die Bayes-Entscheidungsfunktion gilt analog zur Problemstellung ohne Information: n (d) = u (d, xj) w (xj) j=1
(d) = [ u (d (ys), xj) W (ys|xj)] W (xj)) = j=1 s=1 k n Die Besonderheit bei Bayes-Entscheidungsfunktionen liegt nun in dem Umstand, dass man nicht für alle Mk Entscheidungsfunktionen d den Wert (d) errechnen muss, sondern sozusagen vom „Problem ohne Information“ unmittelbar die Lösung des Problems mit Information ermitteln kann; es gilt nämlich: n n (d) = [ u (d (ys), xj) W (ys|xj)] W (xj)) = j=1 s=1 k n = [ u (d (ys), xj) W (ys|xj) W (xj)] = s=1 j=1 k n = (d (ys)) mit s (d (ys)) = u (d (ys), xj) W (ys|xj) W (xj)) s=1 j=1 (Vertauschen der Summation)
= max (1 (d (y1)) + ..... + k (d(yk)) Da die Bayes-Entscheidungsfunktion B das Maximum aus { (d)} ist, können wir schreiben: B = max { (d)} = d = max (1 (d (y1)) + ..... + k (d(yk)) = max 1 (d (y1) + max 2 (d (y2)) + ..... + max k (d (yk)) d(y1)A d(y2)A d(yk)A Daher können wir schreiben: Die Bayes-Entscheidungsfunktion zur Bewertung W (x1), W (x2), ... W (xn) wird bestimmt, indem man als Funktionswert d (ys) eine Bayes-Aktion im einfachen Entscheidungsproblem jedoch mit der Bewertung W (Ys | X1) W (X1), ... , W (Ys | Xn) W (Xn) heranzieht.
Nun folgt aus n max s (d (ys)) = u (d (ys), xj) W (ys | xj) W (xj), d(ys)A j=1 dass die Maxima gegenüber einer Normierung mit jeweils (d.h. für jedes ys) einem Wert W (ys) = W (ys| xj) W (xj) j=1 unbeeinflusst bleiben: max s (d (ys)) max (d (ys)) d(ys)A = d(ys)A W(ys)
s(d (ys) n W (ys|xj) W (xj) ‘s (d (ys)) = = u (d (ys), xj) = Nun gilt: s(d (ys) n W (ys|xj) W (xj) ‘s (d (ys)) = = u (d (ys), xj) = W (ys) j=1 W (ys|xj) W (xj) n = u (d (ys) xj) W (xj | ys) j=1 W (xj) = a priori Zustandswahrscheinlichkeit W (ys | xj) = Verlässlichkeit des unvollkommenen Informationssystems W (ys | xj) W (xj) a posteriori Wahrscheinlichkeit für den W (xj | ys) = = W (ys | xj) W (xj) Zustand xj nach Information ys (Bayes‘scher Satz) n j=1 a posteriori Wahrscheinlichkeiten! n j=1
Hauptsatz der Bayes-Entscheidungstheorie: Eine optimale Entscheidungsfunktion d* erhält man, indem man für jede Nachricht ys Y das modifizierte Entscheidungsproblem mit den Zustandswahrscheinlichkeiten W (x1 | ys), W (x2 | ys), ... , W (xn | ys) für jedes ys (s = 1, 2, ... k) löst. Die zugehörige optimale Aktion aus A ist das Bild d (ys) in der gesuchten Bayes Entscheidungsfunktion zur a priori Bewertung W (x1), W (x2), ... W (xn) bei dem unvollkommenen Informationssystem charakterisiert durch {W (ys | xj) | j = 1, 2, ... n; s = 1, 2, ... k}.
Beispiel: Es gelte: W (x1) = 0,7 W (x2) = 0,3 Matrix des Nutzens x1 x2 a1 0 10 a2 2 7 a3 8 3 unvollkommenes Informationssystem: (W (ys | xj) y1 0,7 0,2 y2 0,2 0,3 y3 0,1 0,5 a priori Bewertung
A posteriori Zustandsverteilungen (normiert) (W (xj | ys)): x1 x2 y1 0,89 0,11 y2 0,61 0,39 y3 0,32 0,68
{W (xj | ys)} W (ys) = W (ys | xj) W (xj) n W (ys | xj) W (xj) Ermittlung der Bayes-Entscheidungsregel mittels a posteriori Verteilung {W (xj | ys)} W (ys) = W (ys | xj) W (xj) n W (ys | xj) W (xj) x1 x2 j=1 x1 x2 y1 0,89 0,11 0,55 y1 0,49 0,06 y2 0,61 0,39 0,23 y2 0,14 0,09 y3 0,32 0,68 0,22 y3 0,07 0,15 x1 x2 a1 0 10 a2 2 7 a3 8 3 Mittels der (nicht normierten) Nachrichtenwahrscheinlichkeiten 0,49/0,55 W(y3|x2)w(x2) W(y3|x1).W(x1) {E (u(ai, ys))} y1 y2 y3 a1 1,1 3,9 6,8 - max ‘(d(y3) a2 2,55 3,95 5,4 d*=(d(y1)d(y2)d(y3)= a3 7,45 6,05 4,6 (a3 a2 a1) y1 y2 y3 a1 0,6 0,9 1,5 - max (d(y3) a2 1,4 0,91 1,19 a3 4,1 1,49 1,01
Wert der optimalen Bayes‘schen Entscheidungsfunktion daher: W (y1) Eu (a3, y1) + W (y2) Eu (a3, y2) + W (y3) Eu (a1, y3) = 7,45 0,55 + 0,23 6,05 + 0,22 6,8 = 6,985 (= 4,1 + 1,39 + 1,5!) Vergleichen wir diesen Wert mit dem Wert der Bayes-Entscheidung ohne Inanspruchnahme des Informationssystems zur a priori Bewertung (0,7 0,3), wo erhalten wir: x1 x2 (ai) a1 0 10 3 a2 2 7 3,5 a3 8 3 6,5 - Bayes-Wert
Wert des Informationssystems in dieser Entscheidung, d. h Wert des Informationssystems in dieser Entscheidung, d.h. Wert einer Informationsbeschaffung beträgt bei GELD als Konsequenzen oij und LINEARER Nutzenfunktion: 6,985 - 6,5 = 0,485! Bemerkung: Bei statistischen Problemen spricht man meist von Zufallsexperimenten oder Stichproben statt von Informationssystemen.
d) Der Informationswert eines Informationssystems Definition: Der Wert, der durch ein Informationssystem (Zufallsexperiment) ermittelten Information ist gleich dem maximalen Ertrag im Entscheidungsproblem aller mittels des Informationssystems konstruierten Entscheidungsfunktionen abzüglich des maximalen Ertrags bei Entscheidung ohne Informationseinholung! Satz: Der Wert der durch ein Informationssystem (Zufallsexperiment) vermittelten Information ist bei den obigen Entscheidungsregeln (Bayes-Regel Maximin-Regel Optimismus-Pessimismus-Regel Hodges-Lehmann-Regel und den damit zusammenhängenden Regeln) NICHT NEGATIV ! Beweis: S. Ferschl., S. 120.
d1) Der Wert vollständiger Information (perfektes Informationssystem) Der vollständigen Information entspricht ein besonders einfaches Informationssystem y: y1 y2 .... yk z1 1 0 .... 0 z2 0 1 .... 0 . . . . zn 0 0 .... 1 Die Frage nach der Entscheidungsregel d0 = (d (y1) d (y2) ... d (yk), welche die optimale Regel darstellt, ist für jede Entscheidungsregel getrennt zu beantworten. Der Wert vollständiger Information ergibt sich aufgrund folgender Rechnung: Uopt (d0, Z) : = Wert der opt. Entscheidungsregel mit Information Uopt (a0, Z) : = Wert der opt. Aktionswahl (ohne Information) WVI = Wert vollständiger Information
). Der Wert vollständiger Information bei Verwendung der ) Der Wert vollständiger Information bei Verwendung der Maximin-Entscheidungsregel Man wird bei der Information xi jene Aktion wählen, die den Nutzen maximiert, also das Spaltenmaximum im einfachen Tableau o. inf. Beispiel: es gelte Z1 Z2 Minima Informationssystem a1 30 6 6 y1 y2 a2 10 20 10 - max z1 1 0 a3 15 8 8 z2 0 1 Maxima 30 20 y1 y2 d0 = ( ) a1 a2 Uopt (d0, Z) = Minimum der Spaltenmaxima = 20 Uopt (a0, Z) = Maximum der Zeilenminima = 10 WVI = 20 - 10 = 10
Bemerkung:. Der Wert vollständiger Information ist offenbar genau Bemerkung: Der Wert vollständiger Information ist offenbar genau dann gleich Null, wenn gilt: min max u (ai, zj) = max min u (ai, zj) j i i j Ein derartiger Punkt u (ai, zj) heißt auch Sattelpunkt der Matrix (2-Personen-Spiele) (falls er existiert!) ) Der Wert vollständiger Information im Falle der Minimax-Regret-Regel Beispiel: Z1 Z2 Regrettafel Z1 Z2 Minimax ? a1 30 6 a1 0 14 14 a2 10 20 a2 20 0 20 a3 15 8 a3 15 12 15 Vollständige Information: man weiß Zustand M = min 14 also: WVI = M (=14) (Regret-Wert der Regrettafel 0, Information)
) Der Wert vollständiger Information bei Verwendung der Bayes-Regel Vorgegeben ist der a priori Wahrscheinlichkeitsvektor (W (Z = z1) W (Z = z2), .... W (Z = zn)) n ( W (Z = zi) = 1). i=1 Nun gilt für das Problem ohne Information EWOI = max W (Z = zi) uij = max (ai) (i = 1, 2, ... m) Für das Entscheidungsproblem mit perfekter Information gilt: EWPI = W (Z = zi) max uij = i
EWVI = W (Z = zj) max uij - max W (Z = zj) uij Der Erwartungswert perfekter Information ergibt sich aus der Differenz: EWPI EWOI EWVI = W (Z = zj) max uij - max W (Z = zj) uij i i = min [ W (Z = zj) (0i - uij)] i n = min W (Z = zj) sij ! I j=1 D. h. der Wert der perfekten Information ist gleich dem Bayes-Wert der zugehörigen Regrettafel. Bemerkung: In obiger Darstellung wird von dem erwarteten Gewinn perfekter Information ausgegangen. Es kann durchaus sein, dass der TATSÄCHLICHE Wert der Information über einem Zustand zj der Wert der Information KLEINER oder größer als EWVI ist. 0i