Präsentation herunterladen
Die Präsentation wird geladen. Bitte warten
369
Nun gilt für die Regrettafel: A Z z1 z2 W (Z=zj) sij a1 29 0 14,5
Beispiel: A W (Z = zi) 0,5 0,5 EW (Z = zi) uij Z1 Z2 a EWOI = 23 a EWPI = 25,5 a EWVI = 25, = 2,5 Nun gilt für die Regrettafel: A Z z1 z2 W (Z=zj) sij a ,5 a ,5 a ,5 – min W (Z = zi) sij Trifft nun die Information ein, dass tatsächlich z1 der wahre Zustand ist, so ist der Wert der Aktion 44; die Information hat uns einen Wissenszuwachs im Wert von 44 – EWOI = 21 gebracht.
370
Es ist also zu unterscheiden:
a) Der erwartete Wert der Information vor Information b) Der „Wertzuwachs“ (gegenüber EWOI) durch die tatsächliche Information. Abschließende Bemerkungen Analog – wie bisher – lässt sich der EWOI, EWPI und EWVI für die Hurwicz-Regel und die Hodges-Lehmann-Regel ableiten.
371
d2) Der Informationswert von „Zufalls“-Experimenten
Zweck eines Zufallsexperiments: Beschaffung von „Information“ über die unbekannten Zustände Z durch Zufallsexperimente. Vorgangsweise zur Ermittlung des Informationswertes: 1. Man ermittelt den Wert des Entscheidungsproblems mit der Aktionsmenge A, der Zustandsmenge Z und der bewerteten Konsequenzen X mit der Entscheidungsregel (α). 2. Man ermittelt den Wert desselben Entscheidungsproblems bei Anwendung der Entscheidungsregel (α) unter Berücksichtigung ALLER mittels des Experiments konstruierbaren Entscheidungsfunktionen. Satz: Der Wert, der durch ein Zufallsexperiment vermittelten Information ist nicht negativ. Bemerkung: Der Wert der Information ist also nicht nur abhängig vom Experiment selbst, sondern insbesondere auch von der Entscheidungsregel.
372
Sequentielle Informationsbeschaffungsmodelle zur Verbesserung der Kenntnisse über die Umweltlagen
Ausgangspunkt: Entscheidungsmatrix, Informationstabelle. Beispiel: Ein Vermieter will seine Betriebsanlagen zu den Erhaltungskosten R vermieten. Ein Mieter A und ein Mieter B sind bereit, diese Betriebsanlagen zu den Bedingungen „Miete R fällig zu Ende der Vermietungsperiode“ zu mieten. Der Vermieter hat jedoch gehört, dass einer von den beiden Mietern insolvent sei, und daher die im Nachhinein zahlbare Miete verloren gehen könnte. Der Vermieter könne nun Informationen darüber einholen.
373
I.) Wahrscheinlichkeitstabelle der Ergebnisse der Auskunftseinholung
Umweltlage b1: Mieter A b2: Mieter B Informations- ist insolvent ist insolvent ergebnis Code Mieter A ist insolvent z1 1 – α 0 Mieter B ist insolvent z – α Antwort: indifferent z3 α α Informationsbeschaffungskosten: konstant c für jede Auskunft
374
II.) A priori Wahrscheinlichkeit:
W (B = b1) = W (B = b2) = 1 - Entscheidungsmatrix: Umweltlagen b1 b2 Handlungsalternativen Mieter B mietet: a1 0 (-u11) R (-u12) Mieter A mietet: a2 R (-u21) 0 (-u22) (R = Verlust) ( ½)
375
. W(B=b1|z)= addiere (subtrahiere) Informationskosten u21=b e0 b1
u11+(1-)u12 W(B=b2|z)=1- z wähle Minimum (Maximum) u21 b1 b2 1- u21+(1-)u22 W(B=b1|Z=z1)=1 b1 b2 d1 d2 z1 z2 z3 W(B=b2|Z=z1)=0 b1 b2 W(B=b1|Z=z2)=0 b1 b2 d1 d2 e1 W(B=b2|Z=z2)=1 b1 b2 W(B=b1|Z=z3)= b1 b2 d1 d2 W(B=b2|Z=z3)=1- b1 b2 b1 b2 d1 d2 z1z1 z1z2 z2z1 z2z2 . z3z3 b1 b2 e2 . ei . Entscheidungsbaum des einstufigen Informationsproblems (e1=Einholung von i Auskünften
376
Analyse Wähle optimalen Informations- prozess Zufall wählt Ausgang
Zufall wählt Umwelt- situation Entscheidender wählt Informations- beschaffungs- prozess Entscheidender wählt Handlungs- alternative
377
Besonderheit des Beispiels:
Ausgänge von ei: (zk1 zk2 … zki) (=ei) i-Tupel aus z1, z2 oder z3. !!! Es gibt: 3‘ Ausgänge von ei!!! Zu beachten: 1) Ist mindestens ein z1 Komponente von ei, so gilt W (B=b1|ei)=1. Erwarteter Verlust = 0, Gesamtverlust = ic. Ist mindestens ein z2 Komponente von ei, so gilt W (B=b2|ei)=1. Erwarteter Verlust = 0. Gesamtverlust = ic. Nur wenn ei = z3 z3 … z3, dann gilt nach dem Satz von Bayes: αi W (B=b1|ei) = = , αi+(1-) αi (1-) αi W (B=b2|ei) = = 1 - . (Man beachte die Voraussetzung: ½.)
378
Erwarteter Verlust: Rαi
Gesamtverlust = 1c + Rαi c R log (1/α) p(n*) = [1+log ] log (1/α) c ic (Input) c Rαi (Output) (Informationsoptimum) R log (1/α) 1 n*= [log ] c log (1/α)
379
Mehrstufige Informationsbeschaffung
Mehrstufige Informationsbeschaffung über die Umweltlagen bei beschränktem Informationseinsatz In dem geschilderten Beispiel ist es wirtschaftlicher, die Erhebung einer Zufallsstichprobe von Auskünften sofort abzubrechen, sobald man z1 oder z2 als Auskunft erhält (z1 = Mieter A ist insolvent; z2 = Mieter B ist insolvent). Erhalten wir n* male eine indifferente Auskunft (z3), so stoppen wir.
380
Entscheidungsbaum maximale Tiefe: n* b1 d1 b2 z0 b1 d2 e0 b2 b1 d1 b2
d2 b2 b1 d1 b2 e1 z2 b1 b1 d2 d1 b2 b2 b1 e1 z3 z1 d2 b2 b1 d1 b2 b1 z2 d2 b2 d1 z1 maximale Tiefe: n* z3 d2 z2 e1 z3 e1
381
Erwarteter Verlust der sequentiellen Politik für n n*
Die Kosten der Politik hängen von der erwarteten Anzahl von Auskünften E (N) ab, die erforderlich sind (E (N) n*). Wahrscheinlichkeit für Abbruch der Auskunftseinholung je Auskunft: 1 – α. Daher gilt: E (N|B = b1) = E (N|B = b2) = E (N) n*. E (N) = E (N|B = b1) + E (N|B = b2) (1-) = E (N|B = b1). n* n* αn* E (N|B = b1) = j W (N = j|B = b1) = j αj-1 (1 – α) + n* αn+-1 = j= j= α Erwarteter Verlust: 1-αn* ‘ (n*) = Rαn* c < (n*). 1-α
382
j ‘ (n*) 1-αi Rαi + c ── Rαi (Output) 1-αi c ── 1-αn* c ─── (Input)
j ‘ (n*) 1-αi Rαi + c ── 1-α Rαi (Output) 1-αi c ── 1-α 1-αn* c ─── (Input) 1-α i
383
Erwarteter Verlust für unbeschränktes i: Es gilt: 1-αi 1
lim ─── = ─── und lim αi = 0. i 1-α α i Also 1-αi lim (Rαi + c ─── ) = c ── < ‘ (i) für endliches i (< (n*)). i α α Bemerkung: 1 lim E (N) = ─── besagt, dass die Tiefe des Entscheidungsbaumes i α selbst eine Zufallsvariable mit einer erwarteten Tiefe von ─── ist! 1-α
384
Nicht-lineare funktionale Version des Neymann-Pearson Lemma (D. H
Nicht-lineare funktionale Version des Neymann-Pearson Lemma (D. H. Wagner / SIAM Review, 1969, p. 52 ff.) a, b 1; - a < b +. l (x) und u (x) seien Funktionen auf (a, b) derart, dass - l(x) u(x) + für a < b. Problem: Finde eine Funktion f auf a < b, die, beschränkt durch u(x) f(x) l(x), E (f) als Integral einer Punkteffizienzfunktion e maximiert unter der Nebenbedingung, dass C(f), Integral über eine Punktfunktion c einen „Kostenbeitrag“ nicht übersteige.
385
e (x, y) c (x,y) D2(e (x, y)) = 1 D2 c (x, y) Kostenbeitrag (?) q (x) – h(x) (?)
386
Satz: e und c setzen reellwertige Funktionen auf 2 Variablen, definiert auf
(1) {(x, y) | a < x < b, l(x) y u(x) und - < y < +}, deren partielle Ableitungen nach y auf (1) existieren; wir bezeichnen diese mit: D2e und D2c. Für jedes feie x (a, b) nehmen wir D2e (x, …) und D2c (x,…) als Riemann integrierbar an (auf jedem beschränkten Intervall auf (l(x), u(x)). Es sei Φ die Menge aller reelwertigen Funktionen f auf (a,b) derart, dass l(x) f(x) u(x) für a < x < b für welche b - < E(f) e(x, f(x) | d x +, a (2) - < C(f) c(x, f(x) | d x < +;
387
(2) (2) definiert die Funktionale E(f) und C(f) und impliziert die Existenz des Integrals. Es sei nun g Φ eine Funktion mit folgender Eigenschaft: es existiert ein > 0 so dass für alle x (a,b): (3) D2e(x,y) D2c(x,y) für g(x) < y < u(x) gilt, und (4) D2e(x,y) D2c(x,y) für l(x) < y < g(x). Dann folgt (5) E(g) = max {E(f) | f Φ und C(f) C(g)} und (6) C(g) = min {C(f) | f Φ und E(f) E(g)}
388
Wegen (3) gilt für g(x) < y < u(x):
Beweis: Für a < x < b gilt f(x) e(x,f(x)) – e(x, g(x)) = D2e(x,y)dy; g(x) c(x, f(x)) – c(x, g(x)) = D2c(x,y) dy; Wegen (3) gilt für g(x) < y < u(x): D2e(x,y) D2c (x,y). Daher gilt: f(x) f(x) D2e(x,y) dy D2c (x,y) dy aber g(x) g(x) e(x,f(x)) – e(x, g(x)) [c(x, f(x)) – c(x, g(x))]
389
Wegen (4) gilt für l(x) < y < g(x):
D2(e(x,y)) D2c (x,y) f(x) Für e (x, f(x)) – e(x, g(x)) = D2 e(x,y) dy g(x) und c(x, f(x)) – c(x, g(x)) = D2C(x,y,) dy folgt wegen (4) und g(x) g(x) D2e (x,y,) dy D2c (x,y) dy f(x) f(x) D2e (x,y,) dy D2c (x,y) dy (I) e (x, f(x)) – e(x, g(x)) (c (x, f(x)) – c(x, g(x)) .
390
α) Beweis von (5) Hieraus folgt, wenn f Φ und C(f) C(g): b E(f) – E(g) = (e (x, f(x)) – e(x, g(x)) dx a [c(x, f(x)) – c(x, g (x))] dx = = [C(f) – C(g)] 0, d.h.: E (f) E(g), womit (5) bewiesen ist.
391
β) Beweis von (6) Wegen der Voraussetzung der Eigenschaft E(f) E(g) folgt für f Φ auf Grund obiger Ausführungen: 0 E(f) – E(g) [ C(f) – C(g)] 0 E(g) – E(f) [C(g)-C(f)] (Mult. mit -1) Und hieraus wieder C(f) C(g) womit (6) bewiesen ist.
392
DISKRETE VERSION Seien e und c reelwertige Funktionen zweier Variablen auf {(x,j) | a < x < b, l(x) j u(x), j Z}. Sei Φ die Menge aller ganzzahligen Funktionen f auf (a,b) derart, dass l(x) f(x) u(x) für a < x < b für die (2) gilt (Funktionaldefinition). g Φ habe folgende Eigenschaft: es existiert ein > 0 derart, dass für alle x (a,b) und ganzen Zahlen j e(x,j) – e(x,j-1) [c(x,j) – c(x,j-1)] für g(x) < j u(x), und e(x,j) – e(x,j-1) [c(x,j) – c(x,j-1)] für l(x) j – 1 < g(x). Es gilt dann (5) und (6).
393
Zum Beweis: Beweis wie oben, nur für x (a,b) und ganze Zahlen i [g(x), u(x)] erhalten wir i e(x,i) – e(x,g(x)) = [e(x,j) – e(x,j-1)] j=g(x)+1 bzw. analoges für i [l(x), g(x)] und c(x,…).
394
Diskretes Beispiel: Ein System sei charakterisiert durch ein n-Tupel m = (m1, ….. mn) von nicht negativen ganzen Zahlen mit der Effizienz E(m) und den Kosten C(m): Um die Kosten-Effizienz-“n-Tupel“ zu finden, wenden wir die diskrete Version an und ersetzen (a,b) durch {1, 2, … , n}. Für i=1,..., n gelte l(i)=0; u(i) = und e(i, j) = ij und c(i,j) = j2 für j = 0, 1, … Wir ermitteln Konturen konstanter Differenz: e (i, j) – e(i, j-1) i = = . c (i, j) – c(i, j-1) j-1
395
abnehmendes i = 2j-1 C(m) = mi2 E(m) = imi
396
Aufzählung m m m3 C E E/C ,5 ,5 /6 = 1,5 ,33 /6 /9 /5 ,5 C = 1 C = 2
397
Num sei n = 3 = 1/3 i = 2j – 1 Ist abnehmend in j (…?) = 5/8
398
E (m) = imi C (m) = m12 D2 (x, y)
(Analog wurden im stetigen Falle die Kurven r = gebildet.) Die Effizienzfunktion ist in diesem Fall ein Tripel: (fx1, fx2, fx3); für = 1. z. Bsp: E (m) = imi m1 m2 m3 E 3 5 6 9 11 14 18 19 22 23 C 1 2 21 26 35 38 Neyman-Pearson Triples (Lagrage Mult.) Andere Größter m1 + 2m2 + 3m3 für m12 + m22 + m32 ≤ A.… wert? C (m) = m12 Kleinstes m12 + m22 + m32 für m1 + 2m2 + 3m3 ≥ Ordinatwert ?
399
Optimale Alternativensuche
Problem: Gegeben sei ein mehr- oder weniger abgegrenztes Suchfeld mit verschiedenen Möglichkeiten an Vorinformation über einen möglichen Sucherfolg. Suche ist nicht kostenlos; jeder Suchschritt sei (zunächst) gleich teuer: c Geldeinheiten. Ziel: Finde bei Zufallseinflüssen mehrere oder ein Objekt mit a) maximaler Wahrscheinlichkeit b) derart, dass der Erwartungswert einer Zielfunktion maximiert wird. Einige hierher zählende Theorien: - Rangauswahlmodelle - Suchtheorie - Stopptheorie (Bayes‘sche und klass. Ansatz)
400
Verteilung von m Xk = max {Y1, Y2, …, Yk} ist
1) Suchmodelle bei bekannter Verteilung der Erfolgschancen (und Risikoneutralität)1 a) Nichtsequentielles Modell bei konstanten Suchkosten: Ziehen ohne Zurücklegen a1) Gesamtheit {1, 2, … n} Verteilung von m Xk = max {Y1, Y2, …, Yk} ist (k ≤ x ≤ n) Minimum: 1 Nur wenn die Nutzenverteilung nicht bekannt… ?
401
Varianz. (s. Janko, Stochastische Modelle in Such- und
Varianz (s. Janko, Stochastische Modelle in Such- und Sortierprozessen, 1976, pp. 218) σ2xk = E (Xk) (u – E (xk)) mit E(Xk) (n+1) k (k+1) k = Stichprobenumfang
402
Bestimmungsgleichung: Optimaler Suchaufwand genau dann, wenn:
c‘ Ertrag einer Verbesserung um die Rangdifferenz von 1 (ev. durchschnittlich) c Kosten der Suche je Stichprobenelement (variabel) Beispiel: c‘ = c = 1
403
b). Nicht sequentielles Modell: Ziehen mit Zurücklegen und stetige
b) Nicht sequentielles Modell: Ziehen mit Zurücklegen und stetige Approximation a) Gleichverteilung in [0, 1] Für eine Stichprobe (x1 ≤ x2 ≤ … ≤ xj ≤ …. ≤ xk) einer Zufallsstichprobe vom Umfang k weist die ZV kj folgende Dichte (bzw. Verteilung) auf: sonst Das ist eine Betaverteilung mit den Parametern p = j und q = k – j + 1 Gewöhnliches Moment v-ter Ordnung:
405
Optimaler Stichprobenumfang unter Verlustminimierung n n n
μ1; k+1 – μ1;k = —– = — = - ——— = a k k k(k+1) Für Suchkosten von a erhalten wir: n ——– k(k+1) k k+1
406
Appendix: Bei Normalverteilung gilt näherungsweise: 1 Für gegebenen Wert von a gilt: Optimaler Stichprobenumfang k* bestimmt durch Ek = (U1) - Ek*+1 (U1) ≤ a und Ek*-1 (U1) - Ek* (U1) > a 1 s. Cramér, Mathematical Methods of Statistics, Princeton Univ. Press, 1966.
407
b) Sequentielle Modelle
1) Rangauswahlmodelle Entscheidungsträger sucht unter n Objekten, die in zufälliger Anordnung präsentiert werden. Der Entscheidungsträger kann nach Beobachtung von r (1 ≤ r ≤ n) Objekten diese jederzeit sortieren nach ihrem Nutzen. Entschließt er sich, ein Objekt nicht zu akzeptieren, so könne er später nicht darauf zurückgreifen. Sei U(i) der Nutzen des Objektes mit dem Rang i in der Sortierordnung. Problem: Finde eine Stoppregel, die E (U(X)) maximiert. Für a = 1, 2, … r und r = 1, 2, …., n sei U*(a, r) der erwartete Nutzen der optimalen Fortsetzung der Suche, wenn r Objekte „gefunden“ wurden und das n-te Objekt den Rang a unter den „gefundenen“ Objekten hat (1 ≤ a ≤ r). U0 (a, r) (?) = Erwarteter Wert der Politik bei Stoppen…. (?)
408
Die Suche endet spätestens mit dem n-ten Objekt, also:
U*(a, n) =U0 (a, n) = U(a); a = 1, 2, …., n Wahrscheinlichkeit, dass Objekt mit Rang a unter r zufällig gezogenen Objekten tatsächlich Rang b hat: b – 1 n – b a – 1 r – a —————— n v (=Wahrscheinlichkeit, a – 1 aus b – 1 möglichen und r – a aus n – b möglichen usw.) Es gilt: a ≤ b ≤ u-v+a
409
Also gilt: (für Stoppen mit relativen Rang a bei r Alt.)
Ein neues (r+1)-tes Objekt liegt mit gleicher Wahrscheinlichkeit in einer der Lücken: 1 r 1 r+1 Lücken —— = Wahrscheinlichkeit für eine Lücke r+1
410
Also gilt für den erwarteten Nutzen
bei Aufsuchen nur einer Alternative und optimaler weiterer Vorgangsweise: Aus den obigen Ausdrücken folgt für a = 1, 2, … r und r = 1, 2, …., n-1, dass U* folgende Funktionalgleichung erfüllt: Lösung durch Rückwärtsinduktion: 1. Man berechne U*(a, v) (U*(a, n) = U(a) = U0(a,n) 2. Man suche solange U*(a,v) > U0(a,v), sonst stoppen (U*(a,n) = U0(a,v)) Modifikation für Suchkosten c 1 U*(a,v) = max {U0(a,v), —– U*(b, r+1) – c} r+1
411
Anwendungsbeispiele:
1) Es gelte U(1) – 1 und U(b) = 0 für b = 2, 3, …, n Ist gleichwertig der Wahrscheinlichkeitsmaximierung bestes Objekt zu finden. Es gilt: r U0(1, v) = — n U0(a, v) = 0 für a = 2, …, -v Wegen U0(a,v) = 0 für a 1 folgt, gestoppt wird nur, wenn ein neues bestes Element gefunden wird! Daraus folgt: Für jedes feste r ist der Wert von U*(a, r) für jeden Wert von a = 2, …, r gleich und werde mit V(r) bezeichnet!
413
Optimales Vorgehen: 1) Rang des gezogenen Objektes kleiner 1, Fortsetzung. 2) Hat das Objekt den Rang 1 unter den aufgesuchten Objekten, dann besteht das optimale Vorgehen darin, fort zu fahren, solange U*(1,r) > r/n Problem: Festlegung von U*(1,r) Lösung: De Groot, Optimal Statistical Decisions, Mc Graw-Hill, 1970. Einfachere Lösung: Janko (1976) Suchkosten können in diesen Modellen berücksichtigt werden, müssen jedoch gegen Rangnutzen verrechenbar sein. Weitere Untersuchungen: Gilbert & Mosteller, Lindley, Chow & Merignti (?), Janko, u.a.
414
2). Einführung in optimales Stoppen bei der Verteilungsfunktion F(x)
2) Einführung in optimales Stoppen bei der Verteilungsfunktion F(x) und Dichte f(x) die stetig und bekannt seien a) Keine Erinnerung und unbeschränkter Stichprobenumfang Beobachter kann jedem Objekt (Alternative) nicht nur den Rang, sondern konkreten Nutzwert zuordnen (Verteilung sei bekannt). α) Die Transformation TF Sei F eine Verteilungsfunktion in 1 mit endlichem Mittel. Es gelte (T kann als eine Transformation von F gesehen werden) Eigenschaften:
415
y y = TF(s) konvexe Funktion! y = μ - s μ s Es gilt: TF(s) = 0 W (Y > s) = 0 TF (s) = μ – s W (Y < s) = 1 Für diskretes F ist TF eine Treppenfunktion. Beispiele: F = N (0,1) und - < s < +
416
Fortsetzung: Nun gilt: E [max {X,s}] = s + TF(s) „Ziehen“ wir nun Alternativen ohne Beschränkung, so muss gelten: Stoppe, wenn X ≥ v* und setze fort, wenn X < v* mit v* bestimmt durch: v* = E [max {X, v*}] - c Hieraus folgt für die Bestimmungsgleichung v* = v* - TF(v*) - c oder die Gleichung TF(v*) = c bestimmt v*. Für c > 0 (und endliche Varianz von F) und unter den Vorraussetzungen von T gilt: Es gibt genau ein v*, welches diese Bedingung erfüllt! Wir können zeigen, dass der erwartete Ertrag dieser Politik v* ist. Politisch ist optimal für unbeschränkte Ziehungen mit und ohne Erinnerung.
417
b) Beschränkter Stichprobenumfang n und ohne Erinnerung
Für j = 1, 2, … n bezeichne vj das Maximum an erwartetem Nutzen, wenn j Beobachtungen bleiben und wir optimal fortfahren und mindestens noch eine Beobachtung machen. Haben wir eine weitere Beobachtung gemacht (X), so ist der erwartete Gewinn von optimaler Fortsetzung unter j – 1 Ziehungen gleich Vj-1 (X). Also gilt für vj: Da Vj (x) für j = 1, 2, … n das Maximum aus Stoppen und Fortsetzung ist, muss gelten: Vj(x) = max { x, vj}
418
Weiters gilt offenbar:
V0(x) = x (man nimmt was kommt). Also kann vn als Erwartungswert der Politik und die Stoppwerte vi (i = 1, 2, … , n) von 0 nach n errechnet werden. Nun gilt: (mit Kosten e) vj+1 = E (Vj (x)) = E (max {x, vj}) – c) = = vj + TF (vj) – c und v1 = E (X) – c Wir erhalten daher folgende Politik: Fortsetzung, wenn xj < vn-j stoppe für xj ≥ vn-j Erwartungswert der Politik: vn
419
TEAMTHEORIE – eine Einführung
= Teil der normativen Entscheidungstheorie Gegenstand der Untersuchung: a) Vergleich verschiedener Organisationsformen b) Vergleich der Kommunikations- und Informationsformen hinsichtlich der Zweckmäßigkeit c) adäquate Formulierung von Kompetenzen und Kriterien Historische Basis: Ansatz von Marschak (1954) Ausarbeitung: Marschak/Radner, Economic Theory of Teams, Cowles Foundation Monography, 1972. Teamtheorie behandelt nicht: Fragen der Aufbauorganisation Zielbildungs- und Abstimmungsphase Teambildung etc.
420
Definition: „Teamtheorie ist eine Entscheidungstheorie bei vorgegebenen Gruppen mit konfliktfreier Zielsetzung, konstanter Aufgabenteilung, variabler Kommunikations- und Informationsstruktur und mehreren Alternativen bei ein-periodischem Ansatz.“ Ziel: Aufsuchen einer Menge von Regeln, die die optimale Kombination von Beobachtungs-, Kommunikations- und Entscheidungsregeln darstellen.
421
Definition eines Teams Sei s Argument und S Wertevorrat von s.
Die Gruppenmitglieder werden mit i und die Gruppe mit σ indiziert. Wir verlangen, dass gilt: i i 1) a) Für alle s, s‘ S gilt s‘ s oder s s‘ für i = 1, 2, …, n. ~ ~ i i i b) Falls s‘ s und s‘‘ s‘ gilt, so gelte s‘‘ s für i = 1, 2, …, n. ~ ~ ~ 2) Wie 1) nur für die Gruppe Bemerkung: 1) und 2) sichern die Transitivität und Vollständigkeit der schwachen Präferenzrelationen der Gruppenmitglieder und der Gruppe. 3) Gilt s‘ s, Vi, so gelte s‘ s (Pareto-Optimalität (?)) 4) s‘ s gilt genau dann, wenn s‘ s, Vi. Bemerkung: Gilt nur 1), 2), 3) Foundation gilt 1), 2b), 3) Koalition i ~ σ ~ i ~ σ ~
422
Entscheidungsmodell:
Mσ sei ein Team im Sinne des obigen Axiomensystems Mitglieder: M1, M2, …., Mn Jedes Teammitglied Mi kontrolliere eine Entscheidungsvariable ai, die Werte in der aus wenigstens zwei Elementen bestehenden Menge Ai aller möglichen Entscheidungen des Mitglieds annimmt a = (a1, a2, …, an): Entscheidungsvektor des Teams Resultat z einer Teamentscheidung hängt von Umweltvariabler x, der Wahrscheinlichkeiten p zugeordnet sind, ab. Y1, Y2, …., Yn seien Teilmengen der Potenzmenge von X P (X) (i) Yi X sei die Menge der tatsächlich von Mi beobachtbaren Umweltzustände.
423
i sei eine Funktion von X nach Yi, die den „beobachtungspflichtigen“ Ausschnitt für Mitglied Mi angibt. Mi beobachtet yi = i(x) mit yi Yi. Yij ist die Menge an Informationen, die Mitglied Mi an Mitglied Mj mit der Nachricht mij weitergibt. mi = (mi1, …., min) mit mij = Yij bezeichnet die von i an 1, 2, … , n übergebenen Nachrichten. (m‘i = (m1i, m2i, …, mni) bezeichne die empfangenen Nachrichten) RIi sei eine Regel, welche für jedes yi und Mi angibt, in welchem Umfang die Teammitglieder zu informieren sind; (Kommunikationsregel) Es gelte mi = R5i(y) und RI = (RI1, …, RIn) ist der Satz von Beobachtungsregeln des Teams.
424
Für Mitglied Mi entstehen Kommunikationskosten ci(mi)
Für Mitglied Mi entstehen Kommunikationskosten ci(mi) Es gelte c(m) = ci(mi). Zudem entstehen fixe Netzwerkkosten C(N). {i} Es sei ηi eine Funktion ηi : x y die angibt, welchen Wissensstand über die Umwelt das Mitglied Mi nach Beobachtung und Kommunikation besitzt. Es gilt also: η0 = (η1, …, ηn) heißt Informationsstruktur des Teams. RIIi seien die Entscheidungsregeln für Mi für jeden Wissensstand; Es gilt: ai = RIIi(m‘i) = RIIi (ηi(x)) RII = (RII1; …., RIIn) ist der Satz von Entscheidungsregeln des Teams.
425
Resultat der Teamtätigkeit:
Nutzen (bzw. Gewinn): z Nettogewinn v = z (x,a) – (c(m) + C(N)) Wegen a = RII(m‘) und m = RI(y) und Y = (x) gilt bei C(N) = 0 v = v [x; RI, RII; , z, c] Weitere Annahme: Risikoneutralität F(x) sei die Verteilung über x. Es gilt dann: V = v (x; RI, RII; , z, c) d F(x) = V (RI, RII; , z, c, p) RI und RII sind so zu wählen, dass bei vorgegebenem , z, c, p der Nettogewinn V maximiert wird.
426
Beispiel (Marschak 1959 und Baetge, H. f. BWL)
Werft Dock A: Dock B: Stundenlohn gleich Hohe Lohnkosten Unternehmensführung (≡ Team): 1. Produktionsmanager Markt Ost 2 Produktmanager (Handelsvertreter) Markt West Verkaufssituation (Umwelt): 1 Angebot pro Monat für 1 Schiff (nur 1 Typ) Optimale Regeln abhängig von: variable Produktionskosten Wahrscheinlichkeitsverteilung der Preisangebote Kommunikationskosten
427
Variable Produktionskosten:
A: 35 Ge B: 20 Ge Produktionskapazität: 1 Schiff je Periode A priori Umweltzustandsverteilung: Ost (= 39) (=21) West Hochpreis Niedrigpreis (= 31) Hochpreis 0,4 0,1 (= 29) Niedrigpreis 0,1 0,4 Tendenz: Gleiche Preisentwicklung auf beiden Märkten
428
Kommunikationskosten:
0,5 Ge je Kommunikationskontakt Also: : Satz von Beobachtungsregeln Es sind nur Preise auf Ostmarkt und bzw. oder die Preise auf dem Westmarkt zu beobachten. z: Bruttogewinn = Erlös – var. Produktionskosten c: var. Kommunikationskosten p: a priori Verteilung fest und bekannt
429
zu RI: Satz von Kommunikationsregeln:
430
Kommunikation inhaltlich: P
Mi Mj (i = 1, 2 und j = 1, 2, 3 und i ≠ j) P = Preisinformation unter Preis auf Markt EA Mi Mj (i = 1, 2, 3 und j = 1, 2 und i ≠ j) EA = Anweisung, ein Angebot anzunehmen. EP Mi Mj: Mi weist Mj über Produktionsort an. (i = 1, 2 und j = 3) Information Entscheidung Angebot Entscheidung Produktion zu RII: Entscheidungsregeln Entscheidungsregel über die Frage des „Wer“ entscheidet. + Entscheidungsregel über die Frage des „Wie“.
431
Folgende personelle Varianten:
zentrale Entscheidung: 1 Teammitglied entscheidet über Angebote (PM, HVO, HVW) dezentrale Entscheidung: mehrere Teammitglieder (hier: beide HV) entscheiden Informationsvarianten: ohne Kommunikation vollkommene Information durch perfekte Kommunikation partielle Information durch partielle Kommunikation
432
˙/. Lösung durch Totale Enumeration Kommunikation
Vollk. Inf. d. Entscheiders Teilw. Kommunikation Ohne Kommunikation Entscheidung HVW inf. PM HVO inf. PM PM 1 P HVO PM HVW PM EA PM HVO PM HVW 4 PM HVO PM HVW 5 HVO PM 7 ˙/. HVO 2 HVW HVO HVO HVW 6 8 EP HVO HP HVW 3 9
433
Zu 1:. Es gibt 4 Umweltzustände und 16 Alternativen (=24. ) der
Zu 1: Es gibt 4 Umweltzustände und 16 Alternativen (=24!) der Preisannahme auf jedem Markt; z. B. heiße Preisk.: 1 = Hoch + Hoch 2 = Hoch + Tief 3 = Tief + Hoch 4 = Tief + Tief Also gibt es 16 x 16 = 256 Entscheidungsregeln für beide Märkte. ( ) Preiskonstellation 1 und 4 Angebote, können akzeptiert werden usw.
434
Tabelle der Entscheidungsmöglichkeiten auf 1 Markt
bei vollständiger Information Ost Hoch Hoch Tief Tief West Hoch Tief Hoch Tief Alternativen auf 1 Markt
435
Hier optimal: Ost = und West = d. h. akzeptiere in Ost bei Preiskonstellation 1 und 2 und in West bei Preiskonstellation 3 und 4. Nettogewinn: V = (39 – 20) · 0,4 + (39 – 20) · 0,1 + (31-20) · 0, (29 – 20) · 0,4 – 0,5 · 4 = 12,2 Ge Kommunikationskosten 2 und 3: Optimal wie 1; Nettogewinn jedoch 12,7, da ein Kommunikationskontakt weniger existiert.
436
Zu 4: Alternativen an Entscheidungsregeln
Ost West für jeden Markt Annahme bei jedem Westpreis Ablehnung bei jedem Westpreis Annahme bei hohem Westpreis Annahme bei niedrigem Westpreis Gewinne: West Ost a b c d a 3,5 8,5 6,5 5,5 b 8,5 -1,5 4,0 3,0 c 8,7 6,2 4,2 10,7 d 3,3 0,8 6,3 -2,2
437
Also Entscheidungsregel für PM
Nimm 1 Angebot pro Monat: von Ost wenn Westpreis hoch von West wenn Westpreis nieder Nettogewinn: 0,4 (39 – 20) + 0,1 (21 – 20) + 0,5 (29 – 20) – 1,5 ~ 10,7 zu 5: Optimale Regel Nimm 1 Angebot je Monat: von Ost wenn Ostpreis hoch von West wenn Ostpreis nieder 0,5 (39 – 20) + 0,4 (29 – 20) + 0,1 (31 – 20) – 3 · 0,5 = 12,7 Ge zu 6, 7 und 10 Sinngemäß leer
438
Dezentrale Entscheidung
10 Entscheider sind HVW und HVO für ihren Markt und Produktion
439
Felder 8 und 9 HV kann sich nur an den Preisen des Marktes orientieren, den der HV beobachten kann (West und Ost). Daher 16 Entscheidungsregeln: ( ) in beliebiger Kombination. Optimale Regel 8: - Osten bei Hochpreis annehmen + Westen Ablehnung anordnen - Osten bei Niedrigpreis ablehnen + Westen Annahme anordnen Nettogewinn: (2 Kommunikationskontakte) 13,2 Ge Optimale Regel 9: - Westen bei Hochpreis ablehnen + Osten Annahme befohlen - Westen bei Niedrigpreis annehmen + Osten Ablehnung befohlen Nettogewinn: 11,2 Ge Feld 11: Mit Feld 1 insgesamt identisch.
440
Feld 12 HVO perfekt informiert HVW unvollständig informiert Ost West 16 4 Entscheidungsregeln beste Regel: Kombination: Ost Regel 13 West d Nettogewinn: 11,1 (= Ost: Angebot annehmen, wenn Preis… (?) 1, 2 oder 3 eintritt West: Auftrag annehmen, wenn Preis nieder) Feld 13: Entspricht Feld 2 und 3. Regel ist aufzuteilen. Feld 14: Jeder HV hat 4 mögliche Entscheidungsregeln: a, b, c, d Optimale Regel: Ost C West d
441
·/· Art der Entscheidung Zentrale Entscheidung Dezentrale Entscheidung
Grad der Kommuni-kation Zu vollkomme-ner Information des Entscheiders führende Kommuni-kation über Preise Teilweise Kommunikation über Preise Ohne Kommu-nikation über Preise Zu vollkomme-ner Information der Entscheider führende Kommuni-kation über Preise Ohne Kommuni-kation über Preise Person des Entscheiders HVW inform. PM HVO inform. PM HVW inform. HVO HVO inform. HVW PM 1) P HVOPM HVWPM EA PMHVO PMHVW 4) 5) 7) ·/· 10) HVO 2) HVWHVO HVOHVW EP 6) 8) 11) 12) 13) 14) HVW 3) 9)
442
Schaub 13: Zusammenstellung der optimalen R11 bei alternativen R1
443
Fortsetzung:
444
Eine Einführung in die Allokation von Mitteln mit suchtheoretischen Methoden
Das Neyman-Pearson Lemma der statistischen Testtheorie Einführungsbeispiel: 1 Würfel werde zweimal geworfen; es kann sich bei dem geworfenen Würfel um einen idealen Würfel mit der Wahrscheinlichkeitsfunktion: f (x = i) = für i = 1, 2, …. 6 (Hypothese H0) oder um einen gefälschten Würfel mit 1 — für i = 1, 2, 3, 4, 5 30 f (x = i) = (Hypothese H1) 5 — für i = 6 6 handeln. 1 — 6
445
Um diese Frage zu entscheiden, werde mit dem Würfel zweimal geworfen
Um diese Frage zu entscheiden, werde mit dem Würfel zweimal geworfen. Das Ergebnis soll dann dazu herangezogen werden, um zu beurteilen, ob H0 oder H1 richtig ist. Ist H0 richtig, so soll die Wahrscheinlichkeit für eine Fehlentscheidung höchstens sein. Ist H1 richtig, so soll die Wahrscheinlichkeit einer Fehlentscheidung minimiert werden. 5 — 36
446
H0: W (i, j) = 1/36 für i, j {1, 2, …, 6} H1: W (i, j) = 1/900 für i, j {1, 2, 3, 4, 5} W (i, j) = 5/180 für i {1, 2, …, 5} und j = 6 oder j {1, 2, …., 5} und i = 6 W (i, j) = 25/36 für (i, j) = (6,6). W (i, j | H1) Wir bilden Koeffizienten: ————— es gibt 3 Werte: 25, 1, 1/25. W (i, j | H0)
447
Wir ordnen die Punkte nach den Koeffizienten:
Kritischer Bereich: (6,6), (5,6), (6,5), (6,4), (4,6) (6,3), (3,6), …. , (5,5), …. Zum Testen einfacher Hypothesen: H0: f0 (x1, …. xn) ist die Dichte (Wahrscheinlichkeitsfunktion der Grundgesamtheit). H1: f1 (x1, …..xn) ist die Dichte (Wahrscheinlichkeitsfunktion der Grundgesamtheit). (H0: Nullhypothese; H1: Alternativhypothese). f0, f1: Zwei „Naturzustände“.
448
Zwei Fehlerarten in der Entscheidung:
Entscheidung: f1 ist richtig. 1) Fehler erster Art: Tatsächlich: f0 ist richtig. Entscheidung: f0 ist richtig. 2) Fehler zweiter Art: Tatsächlich: f1 ist richtig.
449
Klassisches Testen: a) Fixieren des maximalen Fehlers erster Art! = α (oft: 0,05; 0,01; 0,001) b) Finden des Bereichs W* im Stichprobenraum, für den gilt: (1) … f0(x1, …. xn) α W* und (2) …. f1(x1, ….xn) ist maximal unter allen Bereichen W, die ´ W* (1)erfüllen. Bemerkung: Jeder Bereich W, für den (1) erfüllt ist, heißt KRITISCHER Bereich. Der Bereich W* unter den Bereichen W W, für den gilt: Macht des Tests …. f1(x1, … xn) …. f1(x1, …. xn) W* WW heißt MÄCHTIGSTER kritischer Bereich.
450
N-P Fundamentalsatz f0(x1, …. xn), f1(x1, …. xn) seien zwei Dichten bzw. Wahrscheinlichkeits-funktionen einer GEMEINSAMEN absolut stetigen bzw. diskreten Verteilung. W sei die Menge aller Teilmengen W des Stichprobenraumes, für die gelte: f0(x1,….xn) α (diskret) (x1,…xn)W bzw. …. f0(x1, ….xn) α (absolut stetig) W mit 0 < α < 1. Es existiere ein W* W, sodass für ein k 0 gilt:
451
Dann folgt f1(x1, ….xn) f1(x1,….xn) (x1….xn)W* (x1….xn)W bzw. … f1(x1, ….xn) … f1(x1,….xn) W* W für alle W W; d. h. W* ist der (bzw. ein) mächtigste(r) kritische(r) Bereich! Zum Beweis: Stetig: Wir schreiben f0 = f(x1, ….xn | H0) f1 = f(x1, ….xn | H1). Da W, W* W gilt: … f0 = … f0 W* WW
452
Beschränken wir unsere Betrachtungen auf
Wegen W* W W (W*)c W* Wc W W* Beschränken wir unsere Betrachtungen auf … f0 = … f0 (a W, c W*) a c
453
β: Macht des Tests: β* = … f1; β = … f1; W* W β* - β = … f1 - … f1= … f1 - … f1. W* W c a Aus der Definition von a (a W* = ) folgt, dass für die Wahrscheinlichkeit jedes Punktes x in a gilt: also … f1 k … f0. a a Weiters folgt für jeden Punkt x c: also k … f0 … f1. c c
454
Hieraus erhalten wir: α (Fehler erster Art) β* - β k · … f0 - k · … f0 daher β* β c a 0 (siehe oben) Q.E.D. Beispiel: f(x|) = e-x, x 0, > 0; (Exponentialdichte!) H0: = = 0; H1: = < 0. Die n.dim. Dichten sind:
455
Nach obigem Theorem gilt für den mächtigsten kritischen Bereich W*:
wir erhalten Für n = 1, θ0 = 2 und θ1 = 1 erhalten wir: e(1-α) (z. B.: α = 0,05: e-12k = 0,05 ——— = k0,05 = Fehler zweiter Art) 2
456
f1 (log 2 k) ————— = k2 f0 (log 2 k) W* log 2 k (W*)c x = 0,1 f1(x) = 1,637… x = 1 f1(x) = 0,27… f0(x) = 0,904…; f0(x) = 0,36…
457
Das Neyman-Pearson-Lemma als Optimierungstheorem
f0 werde ersetzt durch Kostenfunktion c(x); f1 werde ersetzt durch Ertragsfunktion e(x). W ist nun die Menge aller Produktmengen mit c(x)dx C und W W* W ist jenes Element W, für welches gilt: e(x)dx = max { e(x)dx}. W* WW W D. h. e(x)dx wird maximiert, unter der Nebenbedingung W* c(x)dx C
458
Dies erreicht man einfach dadurch im diskreten Fall, dass man die Punkte in der Reihenfolge absteigender Quotienten heranzieht: Beispiel der Anwendung: 1 2 ……………………………………………………. r r Orte
459
E αi (i=1,….r) = NICHT-Erkennungswahrscheinlichkeit.
V pi (i=1,….r) = a priori Vorkommenswahrscheinlichkeit. +/U 1 Wir suchen in j und das Objekt werde nicht gefunden: Die Posterior Wahrscheinlichkeit p*j ist (Bayes‘sches Theorem): A = nicht entdecken H1 = befindet sich auf j H2 = befindet sich nicht auf j i ≠ j. Suchkosten: ci (i = 1, 2, ….r).
460
L (p1….pr) seien die erwarteten Kosten des Suchprozesses.
Wird im ersten Suchschritt j abgesucht, so ist die Suche mit Wahrscheinlichkeit pj (1 – αj) erfolgreich, oder die Suche ist mit Wahrscheinlichkeit pj αj + (1 – pj) nicht erfolgreich. Wird es nicht gefunden, so sind die erwarteten Kosten L (p*1, …. p*r), wobei p*i die posterior-Wahrscheinlichkeiten sind. Die optimale Wahl des ersten Suchfeldes ist bestimmt durch: L (p1, …. pr) = min {cj + (pj αj + (1-pj)) L (p*1, …. p*r)} j=1,…r
461
Beweisbar: L (p1, …. pr) < und L (p1, … pr)
r r pi ( ci) —— ! i= i=1 1-αi Kosten erstes Mal erwartete Finde-Zeit alle r Felder abzusuchen gewichtet mit pi Lösung des Problems mit N-P-Satz: ij = pi αij-1 (1 – αi) = Wahrscheinlichkeit, Objekt bei j-ter Suche im Feld i zu finden.
462
sei eine Suchpolitik; g() sind die erwarteten Kosten der Politik :
Kosten der n-Versuche Wahrscheinlichkeit, beim n-ten Versuch zu finden i = Kosten der Suche im i-ten Suchschritt = (ci) m = Wahrscheinlichkeit, Objekt im m-ten Schritt zu finden = (ij) Beweis: M N …. 1 1 - 2 1 2 - 3 1 2 3 - 4 1 2 3 4 -
463
N-P-Lemma: Suche gemäß
— — ….. — ….. 1 2 n für alle Werte von (i,j) (!) in ij. Numerisches Beispiel: p1=0,1 p2=0,3 p3=0,1 p4=0,2 p5=0,3 V c1=3 c2=4 c3=1 c4=2 c5=3 K 1=0,8 2=0,7 3=0,5 4=0,6 5=0,9 E
464
ij — Ci 6
465
Beweis, dass g () minimal für
1 2 (1) — — … 1 2 n n+1 Es gelte — > —— für ungleiche Suchfelder. n n+1 sei die Politik, die durch (1) bestimmt ist. ‘‘ sei die Politik, die darin bestehe, den (n+1)-ten Schritt von zum n-ten Schritt zu machen und umgekehrt. g() = 1 + 2 (1-1) + 3(1-1-2) … g() – g(‘‘) = n (1-1-2-…- n-1) + n+1 (1-1-2-…- n) - n+1 (1-1-2-…-n-1) - n (1-1-2-…-n-1-n+1) = - n+1n + nn+1; wegen nn+1 > n+1n gilt g() – g(‘‘) < 0 oder g() < g(‘‘). Q.E.D.
466
E) Sachmittel-Einsatz-Planung
1) Der Neyman-Pearson‘sche Fundamentalsatz Ein Satz zur optimalen Verteilung der Ressourcen Nicht-lineare funktionale Version des Neyman-Pearson-Lemmas (d. h. Wagner/SIAM Review, 1969, p. 52 ff.) a, b 1; - a < b +. l(x) und u(x) seien Funktionen auf (a,b) derart, dass - l(x) u(x) + für a < b. Problem: Finde eine Funktion f auf a < b, die, beschränkt durch u(x) f(x) l(x), E(f) als Integral einer Punkteeffizienz- funktion e maximiert unter der Nebenbedingung, dass C(f), Integral über eine Punktfunktion c einen „Kostenbeitrag“ nicht übersteige.
467
D2e(x,y) ———— = k D2c(x,y)
468
Satz: e und c seien reellwertige Funktionen auf 2 Variablen, definiert auf (1) {(x,y) | a < x < b, l(x) y u(x) und - < y < +, deren partielle Ableitungen nach y auf (1) existieren; wir bezeichnen diese mit D2e und D2c. Für jedes fixe x (a,b) nehmen wir D2e(x…) und D2c(x…) als Riemann integrierbar an auf jedem beschränkten Subintervall auf (l(x), u(x)). Es sei die Menge aller reellwertigen Funktionen f auf (a,b) derart, dass l(x) f(x) u(x) für a < x < b für welche b - < E(f) e(x,f(x))dx < +, a (2) - < C(f) c(x,f(x))dx < +;
469
(2) definiert die Funktionale E(f) und C(f) und impliziert die Existenz des Integrals. Es sei nun g eine Funktion mit folgender Eigenschaft: es existiert ein > 0, sodass für alle x (a,b): (3) D2e(x,y) D2c(x,y) für g(x) < y < u(x) gilt, und (4) D2e(x,y) D2c(x,y) für l(x) < y < g(x) . Dann folgt (5) E(g) = max {E(f) | f und C(f) C(g)} (6) C(g) = min {C(f) | f und E(f) E(g)}.
470
Beweis: Für a < x < b gilt wegen (3) gilt für g(x) < y < u(x): D2e (x,y) D2c (x,y). Daher gilt:
471
Wegen (4) gilt für l(x) < y < g(x):
D2(e(x,y)) D2(c(x,y)) (I) e(x,f(x)) – e(x,g(x)) (c(x,f(x)) – c(x,g(x))).
472
) Beweis von (5) Hieraus folgt, wenn f und C(F) C(g): b E(f) – E(g) = (e(x,f(x)) – e(x,g(x)) dx a (c(x,f(x)) – c(x,g(x))) dx = (C(f) – C(g)) 0. d.h. E(f) E(g) womit (5) bewiesen ist.
473
) Beweis von (6) Wegen der Voraussetzung der Eigenschaft E(f) E(g) folgt für f auf Grund obiger Ausführungen: 0 E(f) – E(g) (C(f) – C(g)) 0 E(g) – E(f) (C(g) – C(f)) (mult. mit -1) Und hieraus wieder: C(f) C(g) womit (6) bewiesen ist.
474
DISKRETE VERSION Seien e und c reellwertige Funktionen zweier Variabler auf {(x,j) | a < x < b, l(x) j u(x), j Z}. Sei die Menge aller ganzzahligen Funktionen f auf (a,b) derart, dass l(x) f(x) u(x) für a < x < b, für die (2) gilt (Funktionaldefinition). g habe folgende Eigenschaft: es existiert ein > 0 derart, dass für alle x (a,b) und ganzen Zahlen j e(x,j) – e(x, j - 1) [c (x,j) – c(x, j - 1)] für g(x) < j u(x), e(x,j) – e(x, j - 1) [c (x,j) – c(x, j - 1)] für l(x) j – 1 < g(x). Es gilt dann (5) und (6). Zum Beweis: Beweis wie oben, nun für x (a,b) und ganze Zahlen i [g(x), u(x)] erhalten wir i e(x,i) – e(x,g(x)) = [e(x,j) – e(x, j – 1)] j=g(x)+1 bzw. Analoges für i [l(x), g(x)] und c(x,…).
475
Diskretes Beispiel: Ein System sei charakterisiert durch ein n-Tupel m = (m1, …. mn) von nichtnegativen ganzen Zahlen mit der Effizienz E (m) und den Kosten C(m): n n E(m) = imi und C(m) = m2i. i= i=1 Um die Kosten-Effizienz-n-Tupel zu finden, wenden wir die diskrete Version an und ersetzen (a,b) durch {1, 2, ….n}. Für i=1, …. n gelte l(i) = 0; u(i) = und e(i,j) = ij und c(i,j) = j2 für j = 0, 1, ….
476
Wir ermitteln KONTUREN konstanter Differenz:
e (i,j) – e (i,j – 1) i = = c (i,j) – c (i,j – 1) j-1 i = —— 2j-1
477
C (m) = m2i E (m) = imi Aufzählung: m1 m2 m3 C E E/C C = 1 ,5 C = 2 ,5 C = 3 /6 = 1,5 C = 4 ,33 /6 /9 C = 5 /5 ,5
478
Num sei n = 3 = 1/3 i = 2j – 1 Ist abnehmend in j für festes i. = 5/8 = 1
479
D2 e (x, y) (Analog wurden im stetigen Falle die Kurven r = gebildet.) D2 c (x, y) Die Effizienzfunktion ist in diesem Fall ein Tripel: (f1, f2, f3); für = 1. z. Bsp: m1 m2 m3 E 3 5 6 9 11 14 18 19 22 23 C 1 2 21 26 35 38
480
E (m) Neyman-Pearson (Lagrange Multipl.) Kosten-Effizienz-Tupel Andere Tupel C (m) Kleinstes m12 + m22 + m32 für m1 + 2m2 + 3m3, welches nicht kleiner als die Ordinate ist.
481
LITERATUR Schwerpunktliteratur:
Bamberg, G. und Coenenberg, G.A., Betriebswirtschaftliche Entscheidungslehre, Vahlen, München 1974. Ferschl, F., Nutzen- und Entscheidungstheorie, Westdeutscher Verlag, Opladen 1975. Mehlhorn, K., Effiziente Algorithmen, B.G. Teubner, Stuttgart 1977 (insbesondere S. 1 – 69, S. 87 – 229)
482
Ergänzende Literatur:
Aho, A.V., Hopcroft, J.E. and Ullmann, J.D., The Design and Analysis of Computer Algorithms, Addison Wesley, 1974. Brucker, P., Approximative Verfahren zur Lösung von diskreten Optimierungsproblemen, in: Datenstrukturen, Graphen, Algorithmen, WG 77, Linz 1977. De Groot, M., Optimal Statistical Decisions, McGraw Hill, NY 1970. Fandel, G., Optimale Entscheidungen bei mehrfacher Zielsetzung, Berlin 1972. Karp, R.M., Probabilistic Analysis of Partitioning Algorithms for the Travelling-Salesman Problem in the Plane, Mathematics of Operations Research, Vol. 2, No. 3, p. 209 – 224, 1977. Lewis, H.R. and Papadimitriou, C., The Efficiency of Algorithms, Scientific American, Vol. 1, p. 96 – 109, 1978. Marschak, J., Elements for a Theory of Teams, Management Science, Vol. 1, p Menges, G., Grundmodelle wirtschaftlicher Entscheidungen, Westdeutscher Verlag, Opladen 1974 (2. Auflage).
Ähnliche Präsentationen
© 2024 SlidePlayer.org Inc.
All rights reserved.