Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Ähnliche Präsentationen


Präsentation zum Thema: ""—  Präsentation transkript:

369 Nun gilt für die Regrettafel: A Z z1 z2 W (Z=zj) sij a1 29 0 14,5
Beispiel: A W (Z = zi) 0,5 0,5 EW (Z = zi) uij Z1 Z2 a EWOI = 23 a EWPI = 25,5 a EWVI = 25, = 2,5 Nun gilt für die Regrettafel: A Z z1 z2 W (Z=zj) sij a ,5 a ,5 a ,5 – min W (Z = zi) sij Trifft nun die Information ein, dass tatsächlich z1 der wahre Zustand ist, so ist der Wert der Aktion 44; die Information hat uns einen Wissenszuwachs im Wert von 44 – EWOI = 21 gebracht.

370 Es ist also zu unterscheiden:
a) Der erwartete Wert der Information vor Information b) Der „Wertzuwachs“ (gegenüber EWOI) durch die tatsächliche Information. Abschließende Bemerkungen Analog – wie bisher – lässt sich der EWOI, EWPI und EWVI für die Hurwicz-Regel und die Hodges-Lehmann-Regel ableiten.

371 d2) Der Informationswert von „Zufalls“-Experimenten
Zweck eines Zufallsexperiments: Beschaffung von „Information“ über die unbekannten Zustände Z durch Zufallsexperimente. Vorgangsweise zur Ermittlung des Informationswertes: 1. Man ermittelt den Wert des Entscheidungsproblems mit der Aktionsmenge A, der Zustandsmenge Z und der bewerteten Konsequenzen X mit der Entscheidungsregel (α). 2. Man ermittelt den Wert desselben Entscheidungsproblems bei Anwendung der Entscheidungsregel (α) unter Berücksichtigung ALLER mittels des Experiments konstruierbaren Entscheidungsfunktionen. Satz: Der Wert, der durch ein Zufallsexperiment vermittelten Information ist nicht negativ. Bemerkung: Der Wert der Information ist also nicht nur abhängig vom Experiment selbst, sondern insbesondere auch von der Entscheidungsregel.

372 Sequentielle Informationsbeschaffungsmodelle zur Verbesserung der Kenntnisse über die Umweltlagen
Ausgangspunkt: Entscheidungsmatrix, Informationstabelle. Beispiel: Ein Vermieter will seine Betriebsanlagen zu den Erhaltungskosten R vermieten. Ein Mieter A und ein Mieter B sind bereit, diese Betriebsanlagen zu den Bedingungen „Miete R fällig zu Ende der Vermietungsperiode“ zu mieten. Der Vermieter hat jedoch gehört, dass einer von den beiden Mietern insolvent sei, und daher die im Nachhinein zahlbare Miete verloren gehen könnte. Der Vermieter könne nun Informationen darüber einholen.

373 I.) Wahrscheinlichkeitstabelle der Ergebnisse der Auskunftseinholung
Umweltlage b1: Mieter A b2: Mieter B Informations- ist insolvent ist insolvent ergebnis Code Mieter A ist insolvent z1 1 – α 0 Mieter B ist insolvent z – α Antwort: indifferent z3 α α Informationsbeschaffungskosten: konstant c für jede Auskunft

374 II.) A priori Wahrscheinlichkeit:
W (B = b1) =  W (B = b2) = 1 -  Entscheidungsmatrix: Umweltlagen b1 b2 Handlungsalternativen Mieter B mietet: a1 0 (-u11) R (-u12) Mieter A mietet: a2 R (-u21) 0 (-u22) (R = Verlust) (  ½)

375 . W(B=b1|z)= addiere (subtrahiere) Informationskosten u21=b e0 b1
u11+(1-)u12 W(B=b2|z)=1- z wähle Minimum (Maximum) u21 b1 b2 1- u21+(1-)u22 W(B=b1|Z=z1)=1 b1 b2 d1 d2 z1 z2 z3 W(B=b2|Z=z1)=0 b1 b2 W(B=b1|Z=z2)=0 b1 b2 d1 d2 e1 W(B=b2|Z=z2)=1 b1 b2 W(B=b1|Z=z3)= b1 b2 d1 d2 W(B=b2|Z=z3)=1- b1 b2 b1 b2 d1 d2 z1z1 z1z2 z2z1 z2z2 . z3z3 b1 b2 e2 . ei . Entscheidungsbaum des einstufigen Informationsproblems (e1=Einholung von i Auskünften

376 Analyse Wähle optimalen Informations- prozess Zufall wählt Ausgang
Zufall wählt Umwelt- situation Entscheidender wählt Informations- beschaffungs- prozess Entscheidender wählt Handlungs- alternative

377 Besonderheit des Beispiels:
Ausgänge von ei: (zk1 zk2 … zki) (=ei) i-Tupel aus z1, z2 oder z3. !!! Es gibt: 3‘ Ausgänge von ei!!! Zu beachten: 1) Ist mindestens ein z1 Komponente von ei, so gilt W (B=b1|ei)=1. Erwarteter Verlust = 0, Gesamtverlust = ic. Ist mindestens ein z2 Komponente von ei, so gilt W (B=b2|ei)=1. Erwarteter Verlust = 0. Gesamtverlust = ic. Nur wenn ei = z3 z3 … z3, dann gilt nach dem Satz von Bayes: αi W (B=b1|ei) = = , αi+(1-) αi (1-) αi W (B=b2|ei) = = 1 - . (Man beachte die Voraussetzung:   ½.)

378 Erwarteter Verlust: Rαi
Gesamtverlust = 1c + Rαi c R log (1/α) p(n*) = [1+log ] log (1/α) c ic (Input) c Rαi (Output) (Informationsoptimum) R log (1/α) 1 n*= [log ] c log (1/α)

379 Mehrstufige Informationsbeschaffung
Mehrstufige Informationsbeschaffung über die Umweltlagen bei beschränktem Informationseinsatz In dem geschilderten Beispiel ist es wirtschaftlicher, die Erhebung einer Zufallsstichprobe von Auskünften sofort abzubrechen, sobald man z1 oder z2 als Auskunft erhält (z1 = Mieter A ist insolvent; z2 = Mieter B ist insolvent). Erhalten wir n* male eine indifferente Auskunft (z3), so stoppen wir.

380 Entscheidungsbaum maximale Tiefe: n* b1 d1 b2 z0 b1 d2 e0 b2 b1 d1 b2
d2 b2 b1 d1 b2 e1 z2 b1 b1 d2 d1 b2 b2 b1 e1 z3 z1 d2 b2 b1 d1 b2 b1 z2 d2 b2 d1 z1 maximale Tiefe: n* z3 d2 z2 e1 z3 e1

381 Erwarteter Verlust der sequentiellen Politik für n  n*
Die Kosten der Politik hängen von der erwarteten Anzahl von Auskünften E (N) ab, die erforderlich sind (E (N)  n*). Wahrscheinlichkeit für Abbruch der Auskunftseinholung je Auskunft: 1 – α. Daher gilt: E (N|B = b1) = E (N|B = b2) = E (N)  n*. E (N) =  E (N|B = b1) + E (N|B = b2) (1-) = E (N|B = b1). n* n* αn* E (N|B = b1) =  j W (N = j|B = b1) =  j αj-1 (1 – α) + n* αn+-1 = j= j= α Erwarteter Verlust: 1-αn* ‘ (n*) = Rαn* c <  (n*). 1-α

382 j ‘ (n*) 1-αi Rαi + c ── Rαi (Output) 1-αi c ── 1-αn* c ─── (Input)
j ‘ (n*) 1-αi Rαi + c ── 1-α Rαi (Output) 1-αi c ── 1-α 1-αn* c ─── (Input) 1-α i

383 Erwarteter Verlust für unbeschränktes i: Es gilt: 1-αi 1
lim ─── = ─── und lim  αi = 0. i 1-α α i Also 1-αi lim (Rαi + c ─── ) = c ── < ‘ (i) für endliches i (<  (n*)). i α α Bemerkung: 1 lim E (N) = ─── besagt, dass die Tiefe des Entscheidungsbaumes i α selbst eine Zufallsvariable mit einer erwarteten Tiefe von ─── ist! 1-α

384 Nicht-lineare funktionale Version des Neymann-Pearson Lemma (D. H
Nicht-lineare funktionale Version des Neymann-Pearson Lemma (D. H. Wagner / SIAM Review, 1969, p. 52 ff.) a, b  1; -   a < b  +. l (x) und u (x) seien Funktionen auf (a, b) derart, dass -  l(x)  u(x)  + für a < b. Problem: Finde eine Funktion f auf a < b, die, beschränkt durch u(x)  f(x)  l(x), E (f) als Integral einer Punkteffizienzfunktion e maximiert unter der Nebenbedingung, dass C(f), Integral über eine Punktfunktion c einen „Kostenbeitrag“ nicht übersteige.

385 e (x, y) c (x,y) D2(e (x, y)) = 1 D2 c (x, y) Kostenbeitrag (?) q (x) – h(x) (?)

386 Satz: e und c setzen reellwertige Funktionen auf 2 Variablen, definiert auf
(1) {(x, y) | a < x < b, l(x)  y  u(x) und - < y < +}, deren partielle Ableitungen nach y auf (1) existieren; wir bezeichnen diese mit: D2e und D2c. Für jedes feie x  (a, b) nehmen wir D2e (x, …) und D2c (x,…) als Riemann integrierbar an (auf jedem beschränkten Intervall auf (l(x), u(x)). Es sei Φ die Menge aller reelwertigen Funktionen f auf (a,b) derart, dass l(x)  f(x)  u(x) für a < x < b für welche b - < E(f)   e(x, f(x) | d x  +, a (2) - < C(f)   c(x, f(x) | d x < +;

387 (2) (2) definiert die Funktionale E(f) und C(f) und impliziert die Existenz des Integrals. Es sei nun g  Φ eine Funktion mit folgender Eigenschaft: es existiert ein  > 0 so dass für alle x  (a,b): (3) D2e(x,y)   D2c(x,y) für g(x) < y < u(x) gilt, und (4) D2e(x,y)   D2c(x,y) für l(x) < y < g(x). Dann folgt (5) E(g) = max {E(f) | f  Φ und C(f)  C(g)} und (6) C(g) = min {C(f) | f  Φ und E(f)  E(g)}

388 Wegen (3) gilt für g(x) < y < u(x):
Beweis: Für a < x < b gilt f(x) e(x,f(x)) – e(x, g(x)) =  D2e(x,y)dy; g(x) c(x, f(x)) – c(x, g(x)) =  D2c(x,y) dy; Wegen (3) gilt für g(x) < y < u(x): D2e(x,y)   D2c (x,y). Daher gilt: f(x) f(x)  D2e(x,y) dy    D2c (x,y) dy aber g(x) g(x) e(x,f(x)) – e(x, g(x))   [c(x, f(x)) – c(x, g(x))]

389 Wegen (4) gilt für l(x) < y < g(x):
D2(e(x,y))   D2c (x,y) f(x) Für e (x, f(x)) – e(x, g(x)) =  D2 e(x,y) dy g(x) und c(x, f(x)) – c(x, g(x)) =  D2C(x,y,) dy folgt wegen (4) und g(x) g(x)  D2e (x,y,) dy    D2c (x,y) dy  f(x) f(x)  D2e (x,y,) dy    D2c (x,y) dy  (I) e (x, f(x)) – e(x, g(x))   (c (x, f(x)) – c(x, g(x)) .

390 α) Beweis von (5) Hieraus folgt, wenn f  Φ und C(f)  C(g): b E(f) – E(g) =  (e (x, f(x)) – e(x, g(x)) dx  a    [c(x, f(x)) – c(x, g (x))] dx = =  [C(f) – C(g)]  0, d.h.: E (f)  E(g), womit (5) bewiesen ist.

391 β) Beweis von (6) Wegen der Voraussetzung der Eigenschaft E(f)  E(g) folgt für f  Φ auf Grund obiger Ausführungen: 0  E(f) – E(g)   [ C(f) – C(g)]  0  E(g) – E(f)   [C(g)-C(f)] (Mult. mit -1) Und hieraus wieder C(f)  C(g) womit (6) bewiesen ist.

392 DISKRETE VERSION Seien e und c reelwertige Funktionen zweier Variablen auf {(x,j) | a < x < b, l(x)  j  u(x), j  Z}. Sei Φ die Menge aller ganzzahligen Funktionen f auf (a,b) derart, dass l(x)  f(x)  u(x) für a < x < b für die (2) gilt (Funktionaldefinition). g  Φ habe folgende Eigenschaft: es existiert ein  > 0 derart, dass für alle x  (a,b) und ganzen Zahlen j e(x,j) – e(x,j-1)   [c(x,j) – c(x,j-1)] für g(x) < j  u(x), und e(x,j) – e(x,j-1)   [c(x,j) – c(x,j-1)] für l(x)  j – 1 < g(x). Es gilt dann (5) und (6).

393 Zum Beweis: Beweis wie oben, nur für x  (a,b) und ganze Zahlen i  [g(x), u(x)] erhalten wir i e(x,i) – e(x,g(x)) =  [e(x,j) – e(x,j-1)] j=g(x)+1 bzw. analoges für i  [l(x), g(x)] und c(x,…).

394 Diskretes Beispiel: Ein System sei charakterisiert durch ein n-Tupel m = (m1, ….. mn) von nicht negativen ganzen Zahlen mit der Effizienz E(m) und den Kosten C(m): Um die Kosten-Effizienz-“n-Tupel“ zu finden, wenden wir die diskrete Version an und ersetzen (a,b) durch {1, 2, … , n}. Für i=1,..., n gelte l(i)=0; u(i) =  und e(i, j) = ij und c(i,j) = j2 für j = 0, 1, … Wir ermitteln Konturen konstanter Differenz: e (i, j) – e(i, j-1) i = = . c (i, j) – c(i, j-1) j-1

395 abnehmendes  i =  2j-1 C(m) = mi2 E(m) = imi

396 Aufzählung m m m3 C E E/C ,5 ,5 /6 = 1,5 ,33 /6 /9 /5 ,5 C = 1 C = 2

397 Num sei n = 3  = 1/3 i =  2j – 1 Ist abnehmend in j (…?)  = 5/8

398 E (m) = imi C (m) =  m12 D2  (x, y)
(Analog wurden im stetigen Falle die Kurven r = gebildet.) Die Effizienzfunktion ist in diesem Fall ein Tripel: (fx1, fx2, fx3); für  = 1. z. Bsp: E (m) = imi m1 m2 m3 E 3 5 6 9 11 14 18 19 22 23 C 1 2 21 26 35 38 Neyman-Pearson Triples (Lagrage Mult.) Andere Größter m1 + 2m2 + 3m3 für m12 + m22 + m32 ≤ A.… wert? C (m) =  m12 Kleinstes m12 + m22 + m32 für m1 + 2m2 + 3m3 ≥ Ordinatwert ?

399 Optimale Alternativensuche
Problem: Gegeben sei ein mehr- oder weniger abgegrenztes Suchfeld mit verschiedenen Möglichkeiten an Vorinformation über einen möglichen Sucherfolg. Suche ist nicht kostenlos; jeder Suchschritt sei (zunächst) gleich teuer: c Geldeinheiten. Ziel: Finde bei Zufallseinflüssen mehrere oder ein Objekt mit a) maximaler Wahrscheinlichkeit b) derart, dass der Erwartungswert einer Zielfunktion maximiert wird. Einige hierher zählende Theorien: - Rangauswahlmodelle - Suchtheorie - Stopptheorie (Bayes‘sche und klass. Ansatz)

400 Verteilung von m Xk = max {Y1, Y2, …, Yk} ist
1) Suchmodelle bei bekannter Verteilung der Erfolgschancen (und Risikoneutralität)1 a) Nichtsequentielles Modell bei konstanten Suchkosten: Ziehen ohne Zurücklegen a1) Gesamtheit {1, 2, … n} Verteilung von m Xk = max {Y1, Y2, …, Yk} ist (k ≤ x ≤ n) Minimum: 1 Nur wenn die Nutzenverteilung nicht bekannt… ?

401 Varianz. (s. Janko, Stochastische Modelle in Such- und
Varianz (s. Janko, Stochastische Modelle in Such- und Sortierprozessen, 1976, pp. 218) σ2xk = E (Xk) (u – E (xk)) mit E(Xk) (n+1) k (k+1) k = Stichprobenumfang

402 Bestimmungsgleichung: Optimaler Suchaufwand genau dann, wenn:
c‘  Ertrag einer Verbesserung um die Rangdifferenz von 1 (ev. durchschnittlich) c  Kosten der Suche je Stichprobenelement (variabel) Beispiel: c‘ = c = 1

403 b). Nicht sequentielles Modell: Ziehen mit Zurücklegen und stetige
b) Nicht sequentielles Modell: Ziehen mit Zurücklegen und stetige Approximation a) Gleichverteilung in [0, 1] Für eine Stichprobe (x1 ≤ x2 ≤ … ≤ xj ≤ …. ≤ xk) einer Zufallsstichprobe vom Umfang k weist die ZV kj folgende Dichte (bzw. Verteilung) auf: sonst Das ist eine Betaverteilung mit den Parametern p = j und q = k – j + 1 Gewöhnliches Moment v-ter Ordnung:

404

405 Optimaler Stichprobenumfang unter Verlustminimierung n n n
μ1; k+1 – μ1;k = —– = — = - ——— = a k k k(k+1) Für Suchkosten von a erhalten wir: n ——– k(k+1) k k+1

406 Appendix: Bei Normalverteilung gilt näherungsweise: 1 Für gegebenen Wert von a gilt: Optimaler Stichprobenumfang k* bestimmt durch Ek = (U1) - Ek*+1 (U1) ≤ a und Ek*-1 (U1) - Ek* (U1) > a 1 s. Cramér, Mathematical Methods of Statistics, Princeton Univ. Press, 1966.

407 b) Sequentielle Modelle
1) Rangauswahlmodelle Entscheidungsträger sucht unter n Objekten, die in zufälliger Anordnung präsentiert werden. Der Entscheidungsträger kann nach Beobachtung von r (1 ≤ r ≤ n) Objekten diese jederzeit sortieren nach ihrem Nutzen. Entschließt er sich, ein Objekt nicht zu akzeptieren, so könne er später nicht darauf zurückgreifen. Sei U(i) der Nutzen des Objektes mit dem Rang i in der Sortierordnung. Problem: Finde eine Stoppregel, die E (U(X)) maximiert. Für a = 1, 2, … r und r = 1, 2, …., n sei U*(a, r) der erwartete Nutzen der optimalen Fortsetzung der Suche, wenn r Objekte „gefunden“ wurden und das n-te Objekt den Rang a unter den „gefundenen“ Objekten hat (1 ≤ a ≤ r). U0 (a, r) (?) = Erwarteter Wert der Politik bei Stoppen…. (?)

408 Die Suche endet spätestens mit dem n-ten Objekt, also:
U*(a, n) =U0 (a, n) = U(a); a = 1, 2, …., n Wahrscheinlichkeit, dass Objekt mit Rang a unter r zufällig gezogenen Objekten tatsächlich Rang b hat: b – 1 n – b a – 1 r – a —————— n v (=Wahrscheinlichkeit, a – 1 aus b – 1 möglichen und r – a aus n – b möglichen usw.) Es gilt: a ≤ b ≤ u-v+a

409 Also gilt: (für Stoppen mit relativen Rang a bei r Alt.)
Ein neues (r+1)-tes Objekt liegt mit gleicher Wahrscheinlichkeit in einer der Lücken: 1  r  1 r+1 Lücken  —— = Wahrscheinlichkeit für eine Lücke r+1

410 Also gilt für den erwarteten Nutzen
bei Aufsuchen nur einer Alternative und optimaler weiterer Vorgangsweise: Aus den obigen Ausdrücken folgt für a = 1, 2, … r und r = 1, 2, …., n-1, dass U* folgende Funktionalgleichung erfüllt: Lösung durch Rückwärtsinduktion: 1. Man berechne U*(a, v) (U*(a, n) = U(a) = U0(a,n) 2. Man suche solange U*(a,v) > U0(a,v), sonst stoppen (U*(a,n) = U0(a,v)) Modifikation für Suchkosten c 1 U*(a,v) = max {U0(a,v), —–  U*(b, r+1) – c} r+1

411 Anwendungsbeispiele:
1) Es gelte U(1) – 1 und U(b) = 0 für b = 2, 3, …, n Ist gleichwertig der Wahrscheinlichkeitsmaximierung bestes Objekt zu finden. Es gilt: r U0(1, v) = — n U0(a, v) = 0 für a = 2, …, -v Wegen U0(a,v) = 0 für a  1 folgt, gestoppt wird nur, wenn ein neues bestes Element gefunden wird! Daraus folgt: Für jedes feste r ist der Wert von U*(a, r) für jeden Wert von a = 2, …, r gleich und werde mit V(r) bezeichnet!

412

413 Optimales Vorgehen: 1) Rang des gezogenen Objektes kleiner 1, Fortsetzung. 2) Hat das Objekt den Rang 1 unter den aufgesuchten Objekten, dann besteht das optimale Vorgehen darin, fort zu fahren, solange U*(1,r) > r/n Problem: Festlegung von U*(1,r) Lösung: De Groot, Optimal Statistical Decisions, Mc Graw-Hill, 1970. Einfachere Lösung: Janko (1976) Suchkosten können in diesen Modellen berücksichtigt werden, müssen jedoch gegen Rangnutzen verrechenbar sein. Weitere Untersuchungen: Gilbert & Mosteller, Lindley, Chow & Merignti (?), Janko, u.a.

414 2). Einführung in optimales Stoppen bei der Verteilungsfunktion F(x)
2) Einführung in optimales Stoppen bei der Verteilungsfunktion F(x) und Dichte f(x) die stetig und bekannt seien a) Keine Erinnerung und unbeschränkter Stichprobenumfang Beobachter kann jedem Objekt (Alternative) nicht nur den Rang, sondern konkreten Nutzwert zuordnen (Verteilung sei bekannt). α) Die Transformation TF Sei F eine Verteilungsfunktion in 1 mit endlichem Mittel. Es gelte (T kann als eine Transformation von F gesehen werden) Eigenschaften:

415 y y = TF(s)  konvexe Funktion! y = μ - s μ s Es gilt: TF(s) = 0  W (Y > s) = 0 TF (s) = μ – s  W (Y < s) = 1 Für diskretes F ist TF eine Treppenfunktion. Beispiele: F = N (0,1) und - < s < +

416 Fortsetzung: Nun gilt: E [max {X,s}] = s + TF(s) „Ziehen“ wir nun Alternativen ohne Beschränkung, so muss gelten: Stoppe, wenn X ≥ v* und setze fort, wenn X < v* mit v* bestimmt durch: v* = E [max {X, v*}] - c Hieraus folgt für die Bestimmungsgleichung v* = v* - TF(v*) - c oder die Gleichung TF(v*) = c bestimmt v*. Für c > 0 (und endliche Varianz von F) und unter den Vorraussetzungen von T gilt: Es gibt genau ein v*, welches diese Bedingung erfüllt! Wir können zeigen, dass der erwartete Ertrag dieser Politik v* ist. Politisch ist optimal für unbeschränkte Ziehungen mit und ohne Erinnerung.

417 b) Beschränkter Stichprobenumfang n und ohne Erinnerung
Für j = 1, 2, … n bezeichne vj das Maximum an erwartetem Nutzen, wenn j Beobachtungen bleiben und wir optimal fortfahren und mindestens noch eine Beobachtung machen. Haben wir eine weitere Beobachtung gemacht (X), so ist der erwartete Gewinn von optimaler Fortsetzung unter j – 1 Ziehungen gleich Vj-1 (X). Also gilt für vj: Da Vj (x) für j = 1, 2, … n das Maximum aus Stoppen und Fortsetzung ist, muss gelten: Vj(x) = max { x, vj}

418 Weiters gilt offenbar:
V0(x) = x (man nimmt was kommt). Also kann vn als Erwartungswert der Politik und die Stoppwerte vi (i = 1, 2, … , n) von 0 nach n errechnet werden. Nun gilt: (mit Kosten e) vj+1 = E (Vj (x)) = E (max {x, vj}) – c) = = vj + TF (vj) – c und v1 = E (X) – c Wir erhalten daher folgende Politik: Fortsetzung, wenn xj < vn-j stoppe für xj ≥ vn-j Erwartungswert der Politik: vn

419 TEAMTHEORIE – eine Einführung
= Teil der normativen Entscheidungstheorie Gegenstand der Untersuchung: a) Vergleich verschiedener Organisationsformen b) Vergleich der Kommunikations- und Informationsformen hinsichtlich der Zweckmäßigkeit c) adäquate Formulierung von Kompetenzen und Kriterien Historische Basis: Ansatz von Marschak (1954) Ausarbeitung: Marschak/Radner, Economic Theory of Teams, Cowles Foundation Monography, 1972. Teamtheorie behandelt nicht: Fragen der Aufbauorganisation Zielbildungs- und Abstimmungsphase Teambildung etc.

420 Definition: „Teamtheorie ist eine Entscheidungstheorie bei vorgegebenen Gruppen mit konfliktfreier Zielsetzung, konstanter Aufgabenteilung, variabler Kommunikations- und Informationsstruktur und mehreren Alternativen bei ein-periodischem Ansatz.“ Ziel: Aufsuchen einer Menge von Regeln, die die optimale Kombination von Beobachtungs-, Kommunikations- und Entscheidungsregeln darstellen.

421 Definition eines Teams Sei s Argument und S Wertevorrat von s.
Die Gruppenmitglieder werden mit i und die Gruppe mit σ indiziert. Wir verlangen, dass gilt: i i 1) a) Für alle s, s‘  S gilt s‘  s oder s  s‘ für i = 1, 2, …, n. ~ ~ i i i b) Falls s‘  s und s‘‘  s‘ gilt, so gelte s‘‘  s für i = 1, 2, …, n. ~ ~ ~ 2) Wie 1) nur für die Gruppe Bemerkung: 1) und 2) sichern die Transitivität und Vollständigkeit der schwachen Präferenzrelationen der Gruppenmitglieder und der Gruppe. 3) Gilt s‘ s, Vi, so gelte s‘ s (Pareto-Optimalität (?)) 4) s‘ s gilt genau dann, wenn s‘ s, Vi. Bemerkung: Gilt nur 1), 2), 3)  Foundation gilt 1), 2b), 3)  Koalition i ~ σ ~ i ~ σ ~

422 Entscheidungsmodell:
Mσ sei ein Team im Sinne des obigen Axiomensystems Mitglieder: M1, M2, …., Mn Jedes Teammitglied Mi kontrolliere eine Entscheidungsvariable ai, die Werte in der aus wenigstens zwei Elementen bestehenden Menge Ai aller möglichen Entscheidungen des Mitglieds annimmt a = (a1, a2, …, an):  Entscheidungsvektor des Teams Resultat z einer Teamentscheidung hängt von Umweltvariabler x, der Wahrscheinlichkeiten p zugeordnet sind, ab. Y1, Y2, …., Yn seien Teilmengen der Potenzmenge von X P (X) (i) Yi  X sei die Menge der tatsächlich von Mi beobachtbaren Umweltzustände.

423 i sei eine Funktion von X nach Yi, die den „beobachtungspflichtigen“ Ausschnitt für Mitglied Mi angibt. Mi beobachtet yi = i(x) mit yi  Yi. Yij ist die Menge an Informationen, die Mitglied Mi an Mitglied Mj mit der Nachricht mij weitergibt. mi = (mi1, …., min) mit mij = Yij bezeichnet die von i an 1, 2, … , n übergebenen Nachrichten. (m‘i = (m1i, m2i, …, mni) bezeichne die empfangenen Nachrichten) RIi sei eine Regel, welche für jedes yi und Mi angibt, in welchem Umfang die Teammitglieder zu informieren sind; (Kommunikationsregel) Es gelte mi = R5i(y) und RI = (RI1, …, RIn) ist der Satz von Beobachtungsregeln des Teams.

424 Für Mitglied Mi entstehen Kommunikationskosten ci(mi)
Für Mitglied Mi entstehen Kommunikationskosten ci(mi) Es gelte c(m) =  ci(mi). Zudem entstehen fixe Netzwerkkosten C(N). {i} Es sei ηi eine Funktion ηi : x  y die angibt, welchen Wissensstand über die Umwelt das Mitglied Mi nach Beobachtung und Kommunikation besitzt. Es gilt also: η0 = (η1, …, ηn) heißt Informationsstruktur des Teams. RIIi seien die Entscheidungsregeln für Mi für jeden Wissensstand; Es gilt: ai = RIIi(m‘i) = RIIi (ηi(x)) RII = (RII1; …., RIIn) ist der Satz von Entscheidungsregeln des Teams.

425 Resultat der Teamtätigkeit:
Nutzen (bzw. Gewinn): z Nettogewinn v = z (x,a) – (c(m) + C(N)) Wegen a = RII(m‘) und m = RI(y) und Y = (x) gilt bei C(N) = 0 v = v [x; RI, RII; , z, c] Weitere Annahme: Risikoneutralität F(x) sei die Verteilung über x. Es gilt dann: V =  v (x; RI, RII; , z, c) d F(x) = V (RI, RII; , z, c, p) RI und RII sind so zu wählen, dass bei vorgegebenem , z, c, p der Nettogewinn V maximiert wird.

426 Beispiel (Marschak 1959 und Baetge, H. f. BWL)
Werft Dock A: Dock B: Stundenlohn gleich Hohe Lohnkosten Unternehmensführung (≡ Team): 1. Produktionsmanager Markt Ost 2 Produktmanager (Handelsvertreter) Markt West Verkaufssituation (Umwelt): 1 Angebot pro Monat für 1 Schiff (nur 1 Typ) Optimale Regeln abhängig von: variable Produktionskosten Wahrscheinlichkeitsverteilung der Preisangebote Kommunikationskosten

427 Variable Produktionskosten:
A: 35 Ge B: 20 Ge Produktionskapazität: 1 Schiff je Periode A priori Umweltzustandsverteilung: Ost (= 39) (=21) West Hochpreis Niedrigpreis (= 31) Hochpreis 0,4 0,1 (= 29) Niedrigpreis 0,1 0,4 Tendenz: Gleiche Preisentwicklung auf beiden Märkten

428 Kommunikationskosten:
0,5 Ge je Kommunikationskontakt Also: : Satz von Beobachtungsregeln Es sind nur Preise auf Ostmarkt und bzw. oder die Preise auf dem Westmarkt zu beobachten. z: Bruttogewinn = Erlös – var. Produktionskosten c: var. Kommunikationskosten p: a priori Verteilung fest und bekannt

429 zu RI: Satz von Kommunikationsregeln:

430 Kommunikation inhaltlich: P
Mi  Mj (i = 1, 2 und j = 1, 2, 3 und i ≠ j) P = Preisinformation unter Preis auf Markt EA Mi  Mj (i = 1, 2, 3 und j = 1, 2 und i ≠ j) EA = Anweisung, ein Angebot anzunehmen. EP Mi  Mj: Mi weist Mj über Produktionsort an. (i = 1, 2 und j = 3) Information Entscheidung Angebot Entscheidung Produktion zu RII: Entscheidungsregeln Entscheidungsregel über die Frage des „Wer“ entscheidet. + Entscheidungsregel über die Frage des „Wie“.

431 Folgende personelle Varianten:
zentrale Entscheidung: 1 Teammitglied entscheidet über Angebote (PM, HVO, HVW) dezentrale Entscheidung: mehrere Teammitglieder (hier: beide HV) entscheiden Informationsvarianten: ohne Kommunikation vollkommene Information durch perfekte Kommunikation partielle Information durch partielle Kommunikation

432 ˙/. Lösung durch Totale Enumeration Kommunikation
Vollk. Inf. d. Entscheiders Teilw. Kommunikation Ohne Kommunikation Entscheidung HVW inf. PM HVO inf. PM PM 1 P HVO  PM HVW  PM EA PM  HVO PM  HVW 4 PM  HVO PM  HVW 5 HVO  PM 7 ˙/. HVO 2 HVW  HVO HVO  HVW 6 8 EP HVO  HP HVW 3 9

433 Zu 1:. Es gibt 4 Umweltzustände und 16 Alternativen (=24. ) der
Zu 1: Es gibt 4 Umweltzustände und 16 Alternativen (=24!) der Preisannahme auf jedem Markt; z. B. heiße Preisk.: 1 = Hoch + Hoch 2 = Hoch + Tief 3 = Tief + Hoch 4 = Tief + Tief Also gibt es 16 x 16 = 256 Entscheidungsregeln für beide Märkte. ( ) Preiskonstellation 1 und 4  Angebote, können akzeptiert werden usw.

434 Tabelle der Entscheidungsmöglichkeiten auf 1 Markt
bei vollständiger Information Ost Hoch Hoch Tief Tief West Hoch Tief Hoch Tief Alternativen auf 1 Markt

435 Hier optimal: Ost = und West = d. h. akzeptiere in Ost bei Preiskonstellation 1 und 2 und in West bei Preiskonstellation 3 und 4. Nettogewinn: V = (39 – 20) · 0,4 + (39 – 20) · 0,1 + (31-20) · 0, (29 – 20) · 0,4 – 0,5 · 4 = 12,2 Ge Kommunikationskosten 2 und 3: Optimal wie 1; Nettogewinn jedoch 12,7, da ein Kommunikationskontakt weniger existiert.

436 Zu 4: Alternativen an Entscheidungsregeln
Ost West für jeden Markt Annahme bei jedem Westpreis Ablehnung bei jedem Westpreis Annahme bei hohem Westpreis Annahme bei niedrigem Westpreis Gewinne: West Ost a b c d a 3,5 8,5 6,5 5,5 b 8,5 -1,5 4,0 3,0 c 8,7 6,2 4,2 10,7 d 3,3 0,8 6,3 -2,2

437 Also Entscheidungsregel für PM
Nimm 1 Angebot pro Monat: von Ost  wenn Westpreis hoch von West  wenn Westpreis nieder Nettogewinn: 0,4 (39 – 20) + 0,1 (21 – 20) + 0,5 (29 – 20) – 1,5 ~ 10,7 zu 5: Optimale Regel Nimm 1 Angebot je Monat: von Ost  wenn Ostpreis hoch von West  wenn Ostpreis nieder 0,5 (39 – 20) + 0,4 (29 – 20) + 0,1 (31 – 20) – 3 · 0,5 = 12,7 Ge zu 6, 7 und 10 Sinngemäß leer

438 Dezentrale Entscheidung
10 Entscheider sind HVW und HVO für ihren Markt und Produktion

439 Felder 8 und 9 HV kann sich nur an den Preisen des Marktes orientieren, den der HV beobachten kann (West und Ost). Daher 16 Entscheidungsregeln: ( ) in beliebiger Kombination. Optimale Regel 8: - Osten bei Hochpreis annehmen +  Westen Ablehnung anordnen - Osten bei Niedrigpreis ablehnen +  Westen Annahme anordnen Nettogewinn: (2 Kommunikationskontakte) 13,2 Ge Optimale Regel 9: - Westen bei Hochpreis ablehnen + Osten Annahme befohlen - Westen bei Niedrigpreis annehmen + Osten Ablehnung befohlen Nettogewinn: 11,2 Ge Feld 11: Mit Feld 1 insgesamt identisch.

440 Feld 12 HVO perfekt informiert HVW unvollständig informiert Ost West  16  4 Entscheidungsregeln beste Regel: Kombination: Ost  Regel 13 West  d Nettogewinn: 11,1 (= Ost: Angebot annehmen, wenn Preis… (?) 1, 2 oder 3 eintritt West: Auftrag annehmen, wenn Preis nieder) Feld 13: Entspricht Feld 2 und 3. Regel ist aufzuteilen. Feld 14: Jeder HV hat 4 mögliche Entscheidungsregeln: a, b, c, d Optimale Regel: Ost  C West  d

441 ·/· Art der Entscheidung Zentrale Entscheidung Dezentrale Entscheidung
Grad der Kommuni-kation Zu vollkomme-ner Information des Entscheiders führende Kommuni-kation über Preise Teilweise Kommunikation über Preise Ohne Kommu-nikation über Preise Zu vollkomme-ner Information der Entscheider führende Kommuni-kation über Preise Ohne Kommuni-kation über Preise Person des Entscheiders HVW inform. PM HVO inform. PM HVW inform. HVO HVO inform. HVW PM 1) P HVOPM HVWPM EA PMHVO PMHVW 4) 5) 7) ·/· 10) HVO 2) HVWHVO HVOHVW EP 6) 8) 11) 12) 13) 14) HVW 3) 9)

442 Schaub 13: Zusammenstellung der optimalen R11 bei alternativen R1

443 Fortsetzung:

444 Eine Einführung in die Allokation von Mitteln mit suchtheoretischen Methoden
Das Neyman-Pearson Lemma der statistischen Testtheorie Einführungsbeispiel: 1 Würfel werde zweimal geworfen; es kann sich bei dem geworfenen Würfel um einen idealen Würfel mit der Wahrscheinlichkeitsfunktion: f (x = i) = für i = 1, 2, …. 6 (Hypothese H0) oder um einen gefälschten Würfel mit 1 — für i = 1, 2, 3, 4, 5 30 f (x = i) = (Hypothese H1) 5 — für i = 6 6 handeln. 1 6

445 Um diese Frage zu entscheiden, werde mit dem Würfel zweimal geworfen
Um diese Frage zu entscheiden, werde mit dem Würfel zweimal geworfen. Das Ergebnis soll dann dazu herangezogen werden, um zu beurteilen, ob H0 oder H1 richtig ist. Ist H0 richtig, so soll die Wahrscheinlichkeit für eine Fehlentscheidung höchstens sein. Ist H1 richtig, so soll die Wahrscheinlichkeit einer Fehlentscheidung minimiert werden. 5 36

446 H0: W (i, j) = 1/36 für i, j  {1, 2, …, 6} H1: W (i, j) = 1/900 für i, j  {1, 2, 3, 4, 5} W (i, j) = 5/180 für i  {1, 2, …, 5} und j = 6 oder j  {1, 2, …., 5} und i = 6 W (i, j) = 25/36 für (i, j) = (6,6). W (i, j | H1) Wir bilden Koeffizienten: ————— es gibt 3 Werte: 25, 1, 1/25. W (i, j | H0)

447 Wir ordnen die Punkte nach den Koeffizienten:
Kritischer Bereich: (6,6), (5,6), (6,5), (6,4), (4,6) (6,3), (3,6), …. , (5,5), …. Zum Testen einfacher Hypothesen: H0: f0 (x1, …. xn) ist die Dichte (Wahrscheinlichkeitsfunktion der Grundgesamtheit). H1: f1 (x1, …..xn) ist die Dichte (Wahrscheinlichkeitsfunktion der Grundgesamtheit). (H0: Nullhypothese; H1: Alternativhypothese). f0, f1: Zwei „Naturzustände“.

448 Zwei Fehlerarten in der Entscheidung:
Entscheidung: f1 ist richtig. 1) Fehler erster Art: Tatsächlich: f0 ist richtig. Entscheidung: f0 ist richtig. 2) Fehler zweiter Art: Tatsächlich: f1 ist richtig.

449 Klassisches Testen: a) Fixieren des maximalen Fehlers erster Art! = α (oft: 0,05; 0,01; 0,001) b) Finden des Bereichs W* im Stichprobenraum, für den gilt: (1)  …  f0(x1, …. xn)  α W* und (2)  ….  f1(x1, ….xn) ist maximal unter allen Bereichen W, die ´ W* (1)erfüllen. Bemerkung: Jeder Bereich W, für den (1) erfüllt ist, heißt KRITISCHER Bereich. Der Bereich W* unter den Bereichen W  W, für den gilt: Macht des Tests  ….  f1(x1, … xn)   ….  f1(x1, …. xn) W* WW heißt MÄCHTIGSTER kritischer Bereich.

450 N-P Fundamentalsatz f0(x1, …. xn), f1(x1, …. xn) seien zwei Dichten bzw. Wahrscheinlichkeits-funktionen einer GEMEINSAMEN absolut stetigen bzw. diskreten Verteilung. W sei die Menge aller Teilmengen W des Stichprobenraumes, für die gelte:  f0(x1,….xn)  α (diskret) (x1,…xn)W bzw.  ….  f0(x1, ….xn)  α (absolut stetig) W mit 0 < α < 1. Es existiere ein W*  W, sodass für ein k  0 gilt:

451 Dann folgt  f1(x1, ….xn)   f1(x1,….xn) (x1….xn)W* (x1….xn)W bzw.  …  f1(x1, ….xn)   …  f1(x1,….xn) W* W für alle W  W; d. h. W* ist der (bzw. ein) mächtigste(r) kritische(r) Bereich! Zum Beweis: Stetig: Wir schreiben f0 = f(x1, ….xn | H0) f1 = f(x1, ….xn | H1). Da W, W*  W gilt:  …  f0 =  …  f0 W* WW

452 Beschränken wir unsere Betrachtungen auf
Wegen W* W W (W*)c W* Wc W W* Beschränken wir unsere Betrachtungen auf  …  f0 =  …  f0 (a  W, c  W*) a c

453 β: Macht des Tests: β* =  …  f1; β =  …  f1; W* W β* - β =  …  f1 -  …  f1=  …  f1 -  …  f1. W* W c a Aus der Definition von a (a  W* = ) folgt, dass für die Wahrscheinlichkeit jedes Punktes x in a gilt: also  …  f1  k  …  f0. a a Weiters folgt für jeden Punkt x  c: also k  …  f0   …  f1. c c

454 Hieraus erhalten wir: α (Fehler erster Art) β* - β  k ·  …  f0 - k ·  …  f0 daher β*  β c a 0 (siehe oben) Q.E.D. Beispiel: f(x|) = e-x, x  0,  > 0; (Exponentialdichte!) H0: =  = 0; H1: =  < 0. Die n.dim. Dichten sind:

455 Nach obigem Theorem gilt für den mächtigsten kritischen Bereich W*:
wir erhalten Für n = 1, θ0 = 2 und θ1 = 1 erhalten wir: e(1-α) (z. B.: α = 0,05: e-12k = 0,05  ——— = k0,05 = Fehler zweiter Art) 2

456 f1 (log 2 k) ————— = k2 f0 (log 2 k) W* log 2 k (W*)c x = 0,1  f1(x) = 1,637… x = 1  f1(x) = 0,27… f0(x) = 0,904…; f0(x) = 0,36…

457 Das Neyman-Pearson-Lemma als Optimierungstheorem
f0 werde ersetzt durch Kostenfunktion c(x); f1 werde ersetzt durch Ertragsfunktion e(x). W ist nun die Menge aller Produktmengen mit  c(x)dx  C und W W*  W ist jenes Element W, für welches gilt:  e(x)dx = max {  e(x)dx}. W* WW W D. h.  e(x)dx wird maximiert, unter der Nebenbedingung W*  c(x)dx  C

458 Dies erreicht man einfach dadurch im diskreten Fall, dass man die Punkte in der Reihenfolge absteigender Quotienten heranzieht: Beispiel der Anwendung: 1 2 ……………………………………………………. r r Orte

459 E αi (i=1,….r) = NICHT-Erkennungswahrscheinlichkeit.
V pi (i=1,….r) = a priori Vorkommenswahrscheinlichkeit. +/U  1 Wir suchen in j und das Objekt werde nicht gefunden: Die Posterior Wahrscheinlichkeit p*j ist (Bayes‘sches Theorem): A = nicht entdecken H1 = befindet sich auf j H2 = befindet sich nicht auf j i ≠ j. Suchkosten: ci (i = 1, 2, ….r).

460 L (p1….pr) seien die erwarteten Kosten des Suchprozesses.
Wird im ersten Suchschritt j abgesucht, so ist die Suche mit Wahrscheinlichkeit pj (1 – αj) erfolgreich, oder die Suche ist mit Wahrscheinlichkeit pj αj + (1 – pj) nicht erfolgreich. Wird es nicht gefunden, so sind die erwarteten Kosten L (p*1, …. p*r), wobei p*i die posterior-Wahrscheinlichkeiten sind. Die optimale Wahl des ersten Suchfeldes ist bestimmt durch: L (p1, …. pr) = min {cj + (pj αj + (1-pj)) L (p*1, …. p*r)} j=1,…r

461 Beweisbar: L (p1, …. pr) <  und L (p1, … pr) 
r r pi  (  ci)  —— ! i= i=1 1-αi Kosten erstes Mal erwartete Finde-Zeit alle r Felder abzusuchen gewichtet mit pi Lösung des Problems mit N-P-Satz: ij = pi αij-1 (1 – αi) = Wahrscheinlichkeit, Objekt bei j-ter Suche im Feld i zu finden.

462  sei eine Suchpolitik; g() sind die erwarteten Kosten der Politik :
Kosten der n-Versuche Wahrscheinlichkeit, beim n-ten Versuch zu finden i = Kosten der Suche im i-ten Suchschritt = (ci) m = Wahrscheinlichkeit, Objekt im m-ten Schritt zu finden = (ij) Beweis: M N …. 1 1 - 2 1 2 - 3 1 2 3 - 4 1 2 3 4 -

463 N-P-Lemma: Suche gemäß
—  —  …..  —  ….. 1 2 n für alle Werte von (i,j) (!) in ij. Numerisches Beispiel: p1=0,1 p2=0,3 p3=0,1 p4=0,2 p5=0,3 V c1=3 c2=4 c3=1 c4=2 c5=3 K 1=0,8 2=0,7 3=0,5 4=0,6 5=0,9 E

464 ij Ci 6

465 Beweis, dass g () minimal für
1 2 (1) —  —  … 1 2 n n+1 Es gelte — > —— für ungleiche Suchfelder. n n+1  sei die Politik, die durch (1) bestimmt ist. ‘‘ sei die Politik, die darin bestehe, den (n+1)-ten Schritt von  zum n-ten Schritt zu machen und umgekehrt. g() = 1 + 2 (1-1) + 3(1-1-2) … g() – g(‘‘) = n (1-1-2-…- n-1) + n+1 (1-1-2-…- n) - n+1 (1-1-2-…-n-1) - n (1-1-2-…-n-1-n+1) = - n+1n + nn+1; wegen nn+1 > n+1n gilt g() – g(‘‘) < 0 oder g() < g(‘‘). Q.E.D.

466 E) Sachmittel-Einsatz-Planung
1) Der Neyman-Pearson‘sche Fundamentalsatz Ein Satz zur optimalen Verteilung der Ressourcen Nicht-lineare funktionale Version des Neyman-Pearson-Lemmas (d. h. Wagner/SIAM Review, 1969, p. 52 ff.) a, b  1; -   a < b  +. l(x) und u(x) seien Funktionen auf (a,b) derart, dass -  l(x)  u(x)  + für a < b. Problem: Finde eine Funktion f auf a < b, die, beschränkt durch u(x)  f(x)  l(x), E(f) als Integral einer Punkteeffizienz- funktion e maximiert unter der Nebenbedingung, dass C(f), Integral über eine Punktfunktion c einen „Kostenbeitrag“ nicht übersteige.

467 D2e(x,y) ———— = k D2c(x,y)

468 Satz: e und c seien reellwertige Funktionen auf 2 Variablen, definiert auf (1) {(x,y) | a < x < b, l(x)  y  u(x) und - < y < +, deren partielle Ableitungen nach y auf (1) existieren; wir bezeichnen diese mit D2e und D2c. Für jedes fixe x  (a,b) nehmen wir D2e(x…) und D2c(x…) als Riemann integrierbar an auf jedem beschränkten Subintervall auf (l(x), u(x)). Es sei  die Menge aller reellwertigen Funktionen f auf (a,b) derart, dass l(x)  f(x)  u(x) für a < x < b für welche b - < E(f)   e(x,f(x))dx < +, a (2) - < C(f)   c(x,f(x))dx < +;

469 (2) definiert die Funktionale E(f) und C(f) und impliziert die Existenz des Integrals. Es sei nun g   eine Funktion mit folgender Eigenschaft: es existiert ein  > 0, sodass für alle x  (a,b): (3) D2e(x,y)  D2c(x,y) für g(x) < y < u(x) gilt, und (4) D2e(x,y)  D2c(x,y) für l(x) < y < g(x) . Dann folgt (5) E(g) = max {E(f) | f   und C(f)  C(g)} (6) C(g) = min {C(f) | f   und E(f)  E(g)}.

470 Beweis: Für a < x < b gilt wegen (3) gilt für g(x) < y < u(x): D2e (x,y)  D2c (x,y). Daher gilt:

471 Wegen (4) gilt für l(x) < y < g(x):
D2(e(x,y))  D2(c(x,y)) (I) e(x,f(x)) – e(x,g(x))  (c(x,f(x)) – c(x,g(x))).

472 ) Beweis von (5) Hieraus folgt, wenn f   und C(F)  C(g): b E(f) – E(g) =  (e(x,f(x)) – e(x,g(x)) dx  a    (c(x,f(x)) – c(x,g(x))) dx =  (C(f) – C(g))  0. d.h. E(f)  E(g) womit (5) bewiesen ist.

473 ) Beweis von (6) Wegen der Voraussetzung der Eigenschaft E(f)  E(g) folgt für f   auf Grund obiger Ausführungen: 0  E(f) – E(g)   (C(f) – C(g))  0  E(g) – E(f)  (C(g) – C(f)) (mult. mit -1) Und hieraus wieder: C(f)  C(g) womit (6) bewiesen ist.

474 DISKRETE VERSION Seien e und c reellwertige Funktionen zweier Variabler auf {(x,j) | a < x < b, l(x)  j  u(x), j  Z}. Sei  die Menge aller ganzzahligen Funktionen f auf (a,b) derart, dass l(x)  f(x)  u(x) für a < x < b, für die (2) gilt (Funktionaldefinition). g   habe folgende Eigenschaft: es existiert ein  > 0 derart, dass für alle x  (a,b) und ganzen Zahlen j e(x,j) – e(x, j - 1)  [c (x,j) – c(x, j - 1)] für g(x) < j  u(x), e(x,j) – e(x, j - 1)  [c (x,j) – c(x, j - 1)] für l(x)  j – 1 < g(x). Es gilt dann (5) und (6). Zum Beweis: Beweis wie oben, nun für x  (a,b) und ganze Zahlen i  [g(x), u(x)] erhalten wir i e(x,i) – e(x,g(x)) =  [e(x,j) – e(x, j – 1)] j=g(x)+1 bzw. Analoges für i  [l(x), g(x)] und c(x,…).

475 Diskretes Beispiel: Ein System sei charakterisiert durch ein n-Tupel m = (m1, …. mn) von nichtnegativen ganzen Zahlen mit der Effizienz E (m) und den Kosten C(m): n n E(m) =  imi und C(m) =  m2i. i= i=1 Um die Kosten-Effizienz-n-Tupel zu finden, wenden wir die diskrete Version an und ersetzen (a,b) durch {1, 2, ….n}. Für i=1, …. n gelte l(i) = 0; u(i) =  und e(i,j) = ij und c(i,j) = j2 für j = 0, 1, ….

476 Wir ermitteln KONTUREN konstanter Differenz:
e (i,j) – e (i,j – 1) i = =  c (i,j) – c (i,j – 1) j-1 i  = —— 2j-1

477 C (m) = m2i E (m) = imi Aufzählung: m1 m2 m3 C E E/C C = 1 ,5 C = 2 ,5 C = 3 /6 = 1,5 C = 4 ,33 /6 /9 C = 5 /5 ,5

478 Num sei n = 3  = 1/3 i =  2j – 1 Ist abnehmend in j für festes i.  = 5/8  = 1

479 D2 e (x, y) (Analog wurden im stetigen Falle die Kurven r = gebildet.) D2 c (x, y) Die Effizienzfunktion ist in diesem Fall ein Tripel: (f1, f2, f3); für  = 1. z. Bsp: m1 m2 m3 E 3 5 6 9 11 14 18 19 22 23 C 1 2 21 26 35 38

480 E (m) Neyman-Pearson (Lagrange Multipl.) Kosten-Effizienz-Tupel Andere Tupel C (m) Kleinstes m12 + m22 + m32 für m1 + 2m2 + 3m3, welches nicht kleiner als die Ordinate ist.

481 LITERATUR Schwerpunktliteratur:
Bamberg, G. und Coenenberg, G.A., Betriebswirtschaftliche Entscheidungslehre, Vahlen, München 1974. Ferschl, F., Nutzen- und Entscheidungstheorie, Westdeutscher Verlag, Opladen 1975. Mehlhorn, K., Effiziente Algorithmen, B.G. Teubner, Stuttgart 1977 (insbesondere S. 1 – 69, S. 87 – 229)

482 Ergänzende Literatur:
Aho, A.V., Hopcroft, J.E. and Ullmann, J.D., The Design and Analysis of Computer Algorithms, Addison Wesley, 1974. Brucker, P., Approximative Verfahren zur Lösung von diskreten Optimierungsproblemen, in: Datenstrukturen, Graphen, Algorithmen, WG 77, Linz 1977. De Groot, M., Optimal Statistical Decisions, McGraw Hill, NY 1970. Fandel, G., Optimale Entscheidungen bei mehrfacher Zielsetzung, Berlin 1972. Karp, R.M., Probabilistic Analysis of Partitioning Algorithms for the Travelling-Salesman Problem in the Plane, Mathematics of Operations Research, Vol. 2, No. 3, p. 209 – 224, 1977. Lewis, H.R. and Papadimitriou, C., The Efficiency of Algorithms, Scientific American, Vol. 1, p. 96 – 109, 1978. Marschak, J., Elements for a Theory of Teams, Management Science, Vol. 1, p Menges, G., Grundmodelle wirtschaftlicher Entscheidungen, Westdeutscher Verlag, Opladen 1974 (2. Auflage).


Herunterladen ppt ""

Ähnliche Präsentationen


Google-Anzeigen