Slides:



Advertisements
Ähnliche Präsentationen
Christian Scheideler SS 2009
Advertisements

Definition [1]: Sei S eine endliche Menge und sei p eine Abbildung von S in die positiven reellen Zahlen Für einen Teilmenge ES von S sei p definiert.
Falls Algorithmen sich selbst rekursiv aufrufen, so kann ihr Laufzeitverhalten bzw. ihr Speicherplatzbedarf in der Regel durch eine Rekursionsformel (recurrence,
Eine dynamische Menge, die diese Operationen unterstützt,
Die Laufzeit von randomisierten (zufallsgesteuerten) Algorithmen hängt von gewissen zufälligen Ereignissen ab (Beispiel Quicksort). Um die Laufzeiten dieser.
Algebraische Zahlen: Exaktes Rechnen mit Wurzeln
Einige entscheidbare bzw. rekursiv aufzählbare Sprachen
Algorithmentheorie 04 –Hashing
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (27 – Kürzeste Wege) Prof. Th. Ottmann.
1 Vorlesung Informatik 2 Algorithmen und Datenstrukturen (21 – Kürzeste Wege) T. Lauer.
Informatik II, SS 2008 Algorithmen und Datenstrukturen Vorlesung 16 Prof. Dr. Thomas Ottmann Algorithmen & Datenstrukturen, Institut für Informatik Fakultät.
Kapitel 5 Stetigkeit.
Reguläre Sprachen Karin Haenelt.
© Karin Haenelt 2006, Äquivalenzen Reg.Ausdrücke, Reg.Sprachen, EA ( ) 1 Reguläre Sprachen Karin Haenelt.
Friedhelm Meyer auf der Heide 1 HEINZ NIXDORF INSTITUTE University of Paderborn Algorithms and Complexity Algorithmen und Komplexität Teil 1: Grundlegende.
Universität Stuttgart Wissensverarbeitung und Numerik I nstitut für K ernenergetik und E nergiesysteme Numerik partieller Differentialgleichungen, SS 01Teil.
Algorithmen des Internets 2005 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität 1 Materialien zu Übung 9 Bälle in Körbe Ranged.
Minimum Spanning Tree: MST
F FnFn z Prof. Dr. Johann Graf Lambsdorff Universität Passau SS a. Anhang zur Bestimmung der optimalen Taylor-Regel.
Statistische Methoden II
Die Vorlesung Statistische Methoden II findet am (nächste Woche) nicht nicht statt. Diese Vorlesung wird zu einem späteren Termin, der noch bekannt.
Konfidenzintervalle Intervallschätzung
TESTS. Worum es geht Man möchte testen, ob eine bestimmte Annahme (Hypothese) über Parameter der Realität entspricht oder nicht. Beobachtung (Stichprobe)
Die Student- oder t-Verteilung
Konfidenzintervalle Intervallschätzung Jeder Beobachtung wird ein Intervall C( ) der reellen Zahlen zugeordnet Niveau Dabei ist die Wahrscheinlichkeit,
TESTS TESTS TESTS TESTS TESTS TESTS TESTS.
Klausurtermin (laut Prüfungsamt) Probeklausur Freitag, 13. Juni 2003 statt Vorlesung.
Achtung Vorlesung am Montag, den 21. Juni Zeit: Uhr Ort: Kiste.
§9 Der affine Raum – Teil 2: Geraden
§9 Der affine Raum – Teil 2: Geraden
Tutorium Willkommen zurück, in der wunderbaren Welt der Statistik Teil II.
Eigenschaften der OLS-Schätzer
Variationsformalismus für das freie Teilchen
Computergrafik – Inhalt Achtung! Kapitel ist relevant für CG-2!
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Effiziente Algorithmen
Entscheidung bei Infomationsdefizit: Simultane optimale Alternativensuche und Nutzenpräzisierung o.Univ. Prof. Dkfm. Dr. Wolfgang Janko, WU.
Effiziente Algorithmen
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/ /23.1.
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Hartmut Klauck Universität Frankfurt SS
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Polynome und schnelle Fourier-Transformation
Wahrscheinlichkeit Zufallsexperiment:
STATISIK LV Nr.: 1375 SS März 2005.
STATISIK LV Nr.: 0028 SS Mai 2005.
STATISIK LV Nr.: 0021 WS 2005/ Oktober 2005.
STATISIK LV Nr.: 1375 SS März 2005.
Konfidenzintervall und Testen für den Mittelwert und Anteile
Nichtlineare Optimierung
Stochastik ganz kurz Beispiel diskret Würfelwurf Beispiel stetig
Geoinformationssysteme
1. 2 Das Grundproblem der Beurteilenden Statistik ● Wir haben uns bisher mit Problemen der Wahrscheinlichkeitsrechnung beschäftigt: – Die Wahrscheinlichkeit.
7.2 Theoretische Kennwerte
Angebot Vorlesung Mikroökonomik
Wahrscheinlichkeitsverteilungen
Angebot Vorlesung Mikroökonomik
Die Numerische Differentiation
Kapitel I. Vorspann zum Begriff Vektorraum
 Präsentation transkript:

Nun gilt für die Regrettafel: A Z z1 z2 W (Z=zj) sij a1 29 0 14,5 11.11.2017 Beispiel: A W (Z = zi) 0,5 0,5 EW (Z = zi) uij Z1 Z2 a1 15 7 11 EWOI = 23 a2 16 4 10 EWPI = 25,5 a3 44 2 23 EWVI = 25,5 - 23 = 2,5 Nun gilt für die Regrettafel: A Z z1 z2 W (Z=zj) sij a1 29 0 14,5 a2 28 3 15,5 a3 0 5 2,5 – min W (Z = zi) sij Trifft nun die Information ein, dass tatsächlich z1 der wahre Zustand ist, so ist der Wert der Aktion 44; die Information hat uns einen Wissenszuwachs im Wert von 44 – EWOI = 21 gebracht.

Es ist also zu unterscheiden: a) Der erwartete Wert der Information vor Information b) Der „Wertzuwachs“ (gegenüber EWOI) durch die tatsächliche Information. Abschließende Bemerkungen Analog – wie bisher – lässt sich der EWOI, EWPI und EWVI für die Hurwicz-Regel und die Hodges-Lehmann-Regel ableiten.

d2) Der Informationswert von „Zufalls“-Experimenten Zweck eines Zufallsexperiments: Beschaffung von „Information“ über die unbekannten Zustände Z durch Zufallsexperimente. Vorgangsweise zur Ermittlung des Informationswertes: 1. Man ermittelt den Wert des Entscheidungsproblems mit der Aktionsmenge A, der Zustandsmenge Z und der bewerteten Konsequenzen X mit der Entscheidungsregel (α). 2. Man ermittelt den Wert desselben Entscheidungsproblems bei Anwendung der Entscheidungsregel (α) unter Berücksichtigung ALLER mittels des Experiments konstruierbaren Entscheidungsfunktionen. Satz: Der Wert, der durch ein Zufallsexperiment vermittelten Information ist nicht negativ. Bemerkung: Der Wert der Information ist also nicht nur abhängig vom Experiment selbst, sondern insbesondere auch von der Entscheidungsregel.

Sequentielle Informationsbeschaffungsmodelle zur Verbesserung der Kenntnisse über die Umweltlagen Ausgangspunkt: Entscheidungsmatrix, Informationstabelle. Beispiel: Ein Vermieter will seine Betriebsanlagen zu den Erhaltungskosten R vermieten. Ein Mieter A und ein Mieter B sind bereit, diese Betriebsanlagen zu den Bedingungen „Miete R fällig zu Ende der Vermietungsperiode“ zu mieten. Der Vermieter hat jedoch gehört, dass einer von den beiden Mietern insolvent sei, und daher die im Nachhinein zahlbare Miete verloren gehen könnte. Der Vermieter könne nun Informationen darüber einholen.

I.) Wahrscheinlichkeitstabelle der Ergebnisse der Auskunftseinholung Umweltlage b1: Mieter A b2: Mieter B Informations- ist insolvent ist insolvent ergebnis Code Mieter A ist insolvent z1 1 – α 0 Mieter B ist insolvent z2 0 1 – α Antwort: indifferent z3 α α Informationsbeschaffungskosten: konstant c für jede Auskunft

II.) A priori Wahrscheinlichkeit: W (B = b1) =  W (B = b2) = 1 -  Entscheidungsmatrix: Umweltlagen b1 b2 Handlungsalternativen Mieter B mietet: a1 0 (-u11) R (-u12) Mieter A mietet: a2 R (-u21) 0 (-u22) (R = Verlust) (  ½)

. W(B=b1|z)= addiere (subtrahiere) Informationskosten u21=b e0 b1 u11+(1-)u12 W(B=b2|z)=1- z wähle Minimum (Maximum) u21 b1 b2 1- u21+(1-)u22 W(B=b1|Z=z1)=1 b1 b2 d1 d2 z1 z2 z3 W(B=b2|Z=z1)=0 b1 b2 W(B=b1|Z=z2)=0 b1 b2 d1 d2 e1 W(B=b2|Z=z2)=1 b1 b2 W(B=b1|Z=z3)= b1 b2 d1 d2 W(B=b2|Z=z3)=1- b1 b2 b1 b2 d1 d2 z1z1 z1z2 z2z1 z2z2 . z3z3 b1 b2 e2 . ei . Entscheidungsbaum des einstufigen Informationsproblems (e1=Einholung von i Auskünften

Analyse Wähle optimalen Informations- prozess Zufall wählt Ausgang Zufall wählt Umwelt- situation Entscheidender wählt Informations- beschaffungs- prozess Entscheidender wählt Handlungs- alternative

Besonderheit des Beispiels: Ausgänge von ei: (zk1 zk2 … zki) (=ei) i-Tupel aus z1, z2 oder z3. !!! Es gibt: 3‘ Ausgänge von ei!!! Zu beachten: 1) Ist mindestens ein z1 Komponente von ei, so gilt W (B=b1|ei)=1. Erwarteter Verlust = 0, Gesamtverlust = ic. Ist mindestens ein z2 Komponente von ei, so gilt W (B=b2|ei)=1. Erwarteter Verlust = 0. Gesamtverlust = ic. Nur wenn ei = z3 z3 … z3, dann gilt nach dem Satz von Bayes: αi W (B=b1|ei) = = , αi+(1-) αi (1-) αi W (B=b2|ei) = = 1 - . (Man beachte die Voraussetzung:   ½.)

Erwarteter Verlust: Rαi Gesamtverlust = 1c + Rαi c R log (1/α) p(n*) = [1+log ] log (1/α) c ic (Input) c Rαi (Output) (Informationsoptimum) R log (1/α) 1 n*= [log ] c log (1/α)

Mehrstufige Informationsbeschaffung Mehrstufige Informationsbeschaffung über die Umweltlagen bei beschränktem Informationseinsatz In dem geschilderten Beispiel ist es wirtschaftlicher, die Erhebung einer Zufallsstichprobe von Auskünften sofort abzubrechen, sobald man z1 oder z2 als Auskunft erhält (z1 = Mieter A ist insolvent; z2 = Mieter B ist insolvent). Erhalten wir n* male eine indifferente Auskunft (z3), so stoppen wir.

Entscheidungsbaum maximale Tiefe: n* b1 d1 b2 z0 b1 d2 e0 b2 b1 d1 b2 d2 b2 b1 d1 b2 e1 z2 b1 b1 d2 d1 b2 b2 b1 e1 z3 z1 d2 b2 b1 d1 b2 b1 z2 d2 b2 d1 z1 maximale Tiefe: n* z3 d2 z2 e1 z3 e1

Erwarteter Verlust der sequentiellen Politik für n  n* Die Kosten der Politik hängen von der erwarteten Anzahl von Auskünften E (N) ab, die erforderlich sind (E (N)  n*). Wahrscheinlichkeit für Abbruch der Auskunftseinholung je Auskunft: 1 – α. Daher gilt: E (N|B = b1) = E (N|B = b2) = E (N)  n*. E (N) =  E (N|B = b1) + E (N|B = b2) (1-) = E (N|B = b1). n* n*-1 1-αn* E (N|B = b1) =  j W (N = j|B = b1) =  j αj-1 (1 – α) + n* αn+-1 = j=1 j=1 1-α Erwarteter Verlust: 1-αn* ‘ (n*) = Rαn* + c <  (n*). 1-α

j ‘ (n*) 1-αi Rαi + c ── Rαi (Output) 1-αi c ── 1-αn* c ─── (Input) j ‘ (n*) 1-αi Rαi + c ── 1-α Rαi (Output) 1-αi c ── 1-α 1-αn* c ─── (Input) 1-α i

Erwarteter Verlust für unbeschränktes i: Es gilt: 1-αi 1 lim ─── = ─── und lim  αi = 0. i 1-α 1-α i Also 1-αi 1 lim (Rαi + c ─── ) = c ── < ‘ (i) für endliches i (<  (n*)). i 1-α 1-α Bemerkung: 1 lim E (N) = ─── besagt, dass die Tiefe des Entscheidungsbaumes i 1-α selbst eine Zufallsvariable mit einer erwarteten Tiefe von ─── ist! 1-α

Nicht-lineare funktionale Version des Neymann-Pearson Lemma (D. H Nicht-lineare funktionale Version des Neymann-Pearson Lemma (D. H. Wagner / SIAM Review, 1969, p. 52 ff.) a, b  1; -   a < b  +. l (x) und u (x) seien Funktionen auf (a, b) derart, dass -  l(x)  u(x)  + für a < b. Problem: Finde eine Funktion f auf a < b, die, beschränkt durch u(x)  f(x)  l(x), E (f) als Integral einer Punkteffizienzfunktion e maximiert unter der Nebenbedingung, dass C(f), Integral über eine Punktfunktion c einen „Kostenbeitrag“ nicht übersteige.

e (x, y) c (x,y) D2(e (x, y)) = 1 D2 c (x, y) Kostenbeitrag (?) q (x) – h(x) (?)

Satz: e und c setzen reellwertige Funktionen auf 2 Variablen, definiert auf (1) {(x, y) | a < x < b, l(x)  y  u(x) und - < y < +}, deren partielle Ableitungen nach y auf (1) existieren; wir bezeichnen diese mit: D2e und D2c. Für jedes feie x  (a, b) nehmen wir D2e (x, …) und D2c (x,…) als Riemann integrierbar an (auf jedem beschränkten Intervall auf (l(x), u(x)). Es sei Φ die Menge aller reelwertigen Funktionen f auf (a,b) derart, dass l(x)  f(x)  u(x) für a < x < b für welche b - < E(f)   e(x, f(x) | d x  +, a (2) - < C(f)   c(x, f(x) | d x < +;

(2) (2) definiert die Funktionale E(f) und C(f) und impliziert die Existenz des Integrals. Es sei nun g  Φ eine Funktion mit folgender Eigenschaft: es existiert ein  > 0 so dass für alle x  (a,b): (3) D2e(x,y)   D2c(x,y) für g(x) < y < u(x) gilt, und (4) D2e(x,y)   D2c(x,y) für l(x) < y < g(x). Dann folgt (5) E(g) = max {E(f) | f  Φ und C(f)  C(g)} und (6) C(g) = min {C(f) | f  Φ und E(f)  E(g)}

Wegen (3) gilt für g(x) < y < u(x): Beweis: Für a < x < b gilt f(x) e(x,f(x)) – e(x, g(x)) =  D2e(x,y)dy; g(x) c(x, f(x)) – c(x, g(x)) =  D2c(x,y) dy; Wegen (3) gilt für g(x) < y < u(x): D2e(x,y)   D2c (x,y). Daher gilt: f(x) f(x)  D2e(x,y) dy    D2c (x,y) dy aber g(x) g(x) e(x,f(x)) – e(x, g(x))   [c(x, f(x)) – c(x, g(x))]

Wegen (4) gilt für l(x) < y < g(x): D2(e(x,y))   D2c (x,y) f(x) Für e (x, f(x)) – e(x, g(x)) =  D2 e(x,y) dy g(x) und c(x, f(x)) – c(x, g(x)) =  D2C(x,y,) dy folgt wegen (4) und g(x) g(x)  D2e (x,y,) dy    D2c (x,y) dy  f(x) f(x)  D2e (x,y,) dy    D2c (x,y) dy  (I) e (x, f(x)) – e(x, g(x))   (c (x, f(x)) – c(x, g(x)) .

α) Beweis von (5) Hieraus folgt, wenn f  Φ und C(f)  C(g): b E(f) – E(g) =  (e (x, f(x)) – e(x, g(x)) dx  a    [c(x, f(x)) – c(x, g (x))] dx = =  [C(f) – C(g)]  0, d.h.: E (f)  E(g), womit (5) bewiesen ist.

β) Beweis von (6) Wegen der Voraussetzung der Eigenschaft E(f)  E(g) folgt für f  Φ auf Grund obiger Ausführungen: 0  E(f) – E(g)   [ C(f) – C(g)]  0  E(g) – E(f)   [C(g)-C(f)] (Mult. mit -1) Und hieraus wieder C(f)  C(g) womit (6) bewiesen ist.

DISKRETE VERSION Seien e und c reelwertige Funktionen zweier Variablen auf {(x,j) | a < x < b, l(x)  j  u(x), j  Z}. Sei Φ die Menge aller ganzzahligen Funktionen f auf (a,b) derart, dass l(x)  f(x)  u(x) für a < x < b für die (2) gilt (Funktionaldefinition). g  Φ habe folgende Eigenschaft: es existiert ein  > 0 derart, dass für alle x  (a,b) und ganzen Zahlen j e(x,j) – e(x,j-1)   [c(x,j) – c(x,j-1)] für g(x) < j  u(x), und e(x,j) – e(x,j-1)   [c(x,j) – c(x,j-1)] für l(x)  j – 1 < g(x). Es gilt dann (5) und (6).

Zum Beweis: Beweis wie oben, nur für x  (a,b) und ganze Zahlen i  [g(x), u(x)] erhalten wir i e(x,i) – e(x,g(x)) =  [e(x,j) – e(x,j-1)] j=g(x)+1 bzw. analoges für i  [l(x), g(x)] und c(x,…).

Diskretes Beispiel: Ein System sei charakterisiert durch ein n-Tupel m = (m1, ….. mn) von nicht negativen ganzen Zahlen mit der Effizienz E(m) und den Kosten C(m): Um die Kosten-Effizienz-“n-Tupel“ zu finden, wenden wir die diskrete Version an und ersetzen (a,b) durch {1, 2, … , n}. Für i=1,..., n gelte l(i)=0; u(i) =  und e(i, j) = ij und c(i,j) = j2 für j = 0, 1, … Wir ermitteln Konturen konstanter Differenz: e (i, j) – e(i, j-1) i = = . c (i, j) – c(i, j-1) 2j-1

abnehmendes   i =  2j-1 C(m) = mi2 E(m) = imi

Aufzählung m1 m2 m3 C E E/C 0 0 1 1 3 3 0 1 0 1 2 2 1 0 0 1 1 1 0 1 1 2 5 2,5 1 0 1 2 4 2 1 1 0 2 3 1,5 1 1 1 3 6 2 1 1 2 6 9 9/6 = 1,5 1 2 1 6 8 1,33 2 1 1 6 7 7/6 1 2 2 9 11 11/9 0 1 2 5 8 8/5 0 0 2 4 6 1,5 C = 1 C = 2

Num sei n = 3  = 1/3 i =  2j – 1 Ist abnehmend in j (…?)  = 5/8

E (m) = imi C (m) =  m12 D2  (x, y) (Analog wurden im stetigen Falle die Kurven r = gebildet.) Die Effizienzfunktion ist in diesem Fall ein Tripel: (fx1, fx2, fx3); für  = 1. z. Bsp: E (m) = imi m1 m2 m3 0 0 1 0 1 1 1 1 1 1 1 2 1 2 2 1 2 3 1 2 4 1 3 4 1 3 5 2 3 5 E 3 5 6 9 11 14 18 19 22 23 C 1 2 21 26 35 38 Neyman-Pearson Triples (Lagrage Mult.) Andere Größter m1 + 2m2 + 3m3 für m12 + m22 + m32 ≤ A.… wert? C (m) =  m12 Kleinstes m12 + m22 + m32 für m1 + 2m2 + 3m3 ≥ Ordinatwert ?

Optimale Alternativensuche Problem: Gegeben sei ein mehr- oder weniger abgegrenztes Suchfeld mit verschiedenen Möglichkeiten an Vorinformation über einen möglichen Sucherfolg. Suche ist nicht kostenlos; jeder Suchschritt sei (zunächst) gleich teuer: c Geldeinheiten. Ziel: Finde bei Zufallseinflüssen mehrere oder ein Objekt mit a) maximaler Wahrscheinlichkeit b) derart, dass der Erwartungswert einer Zielfunktion maximiert wird. Einige hierher zählende Theorien: - Rangauswahlmodelle - Suchtheorie - Stopptheorie (Bayes‘sche und klass. Ansatz)

Verteilung von m Xk = max {Y1, Y2, …, Yk} ist 1) Suchmodelle bei bekannter Verteilung der Erfolgschancen (und Risikoneutralität)1 a) Nichtsequentielles Modell bei konstanten Suchkosten: Ziehen ohne Zurücklegen a1) Gesamtheit {1, 2, … n} Verteilung von m Xk = max {Y1, Y2, …, Yk} ist (k ≤ x ≤ n) Minimum: 1 Nur wenn die Nutzenverteilung nicht bekannt… ?

Varianz. (s. Janko, Stochastische Modelle in Such- und Varianz (s. Janko, Stochastische Modelle in Such- und Sortierprozessen, 1976, pp. 218) σ2xk = E (Xk) (u – E (xk)) mit E(Xk) (n+1) k (k+1) k = Stichprobenumfang

Bestimmungsgleichung: Optimaler Suchaufwand genau dann, wenn: c‘  Ertrag einer Verbesserung um die Rangdifferenz von 1 (ev. durchschnittlich) c  Kosten der Suche je Stichprobenelement (variabel) Beispiel: c‘ = c = 1

b). Nicht sequentielles Modell: Ziehen mit Zurücklegen und stetige b) Nicht sequentielles Modell: Ziehen mit Zurücklegen und stetige Approximation a) Gleichverteilung in [0, 1] Für eine Stichprobe (x1 ≤ x2 ≤ … ≤ xj ≤ …. ≤ xk) einer Zufallsstichprobe vom Umfang k weist die ZV kj folgende Dichte (bzw. Verteilung) auf: 0 sonst Das ist eine Betaverteilung mit den Parametern p = j und q = k – j + 1 Gewöhnliches Moment v-ter Ordnung:

Optimaler Stichprobenumfang unter Verlustminimierung n n n μ1; k+1 – μ1;k = —– = — = - ——— = a k+1 k k(k+1) Für Suchkosten von a erhalten wir: n ——– k(k+1) k k+1

Appendix: Bei Normalverteilung gilt näherungsweise: 1 Für gegebenen Wert von a gilt: Optimaler Stichprobenumfang k* bestimmt durch Ek = (U1) - Ek*+1 (U1) ≤ a und Ek*-1 (U1) - Ek* (U1) > a 1 s. Cramér, Mathematical Methods of Statistics, Princeton Univ. Press, 1966.

b) Sequentielle Modelle 1) Rangauswahlmodelle Entscheidungsträger sucht unter n Objekten, die in zufälliger Anordnung präsentiert werden. Der Entscheidungsträger kann nach Beobachtung von r (1 ≤ r ≤ n) Objekten diese jederzeit sortieren nach ihrem Nutzen. Entschließt er sich, ein Objekt nicht zu akzeptieren, so könne er später nicht darauf zurückgreifen. Sei U(i) der Nutzen des Objektes mit dem Rang i in der Sortierordnung. Problem: Finde eine Stoppregel, die E (U(X)) maximiert. Für a = 1, 2, … r und r = 1, 2, …., n sei U*(a, r) der erwartete Nutzen der optimalen Fortsetzung der Suche, wenn r Objekte „gefunden“ wurden und das n-te Objekt den Rang a unter den „gefundenen“ Objekten hat (1 ≤ a ≤ r). U0 (a, r) (?) = Erwarteter Wert der Politik bei Stoppen…. (?)

Die Suche endet spätestens mit dem n-ten Objekt, also: U*(a, n) =U0 (a, n) = U(a); a = 1, 2, …., n Wahrscheinlichkeit, dass Objekt mit Rang a unter r zufällig gezogenen Objekten tatsächlich Rang b hat: b – 1 n – b a – 1 r – a —————— n v (=Wahrscheinlichkeit, a – 1 aus b – 1 möglichen und r – a aus n – b möglichen usw.) Es gilt: a ≤ b ≤ u-v+a

Also gilt: (für Stoppen mit relativen Rang a bei r Alt.) Ein neues (r+1)-tes Objekt liegt mit gleicher Wahrscheinlichkeit in einer der Lücken: 1 2 . . . r  1 r+1 Lücken  —— = Wahrscheinlichkeit für eine Lücke r+1

Also gilt für den erwarteten Nutzen bei Aufsuchen nur einer Alternative und optimaler weiterer Vorgangsweise: Aus den obigen Ausdrücken folgt für a = 1, 2, … r und r = 1, 2, …., n-1, dass U* folgende Funktionalgleichung erfüllt: Lösung durch Rückwärtsinduktion: 1. Man berechne U*(a, v) (U*(a, n) = U(a) = U0(a,n) 2. Man suche solange U*(a,v) > U0(a,v), sonst stoppen (U*(a,n) = U0(a,v)) Modifikation für Suchkosten c 1 U*(a,v) = max {U0(a,v), —–  U*(b, r+1) – c} r+1

Anwendungsbeispiele: 1) Es gelte U(1) – 1 und U(b) = 0 für b = 2, 3, …, n Ist gleichwertig der Wahrscheinlichkeitsmaximierung bestes Objekt zu finden. Es gilt: r U0(1, v) = — n U0(a, v) = 0 für a = 2, …, -v Wegen U0(a,v) = 0 für a  1 folgt, gestoppt wird nur, wenn ein neues bestes Element gefunden wird! Daraus folgt: Für jedes feste r ist der Wert von U*(a, r) für jeden Wert von a = 2, …, r gleich und werde mit V(r) bezeichnet!

Optimales Vorgehen: 1) Rang des gezogenen Objektes kleiner 1, Fortsetzung. 2) Hat das Objekt den Rang 1 unter den aufgesuchten Objekten, dann besteht das optimale Vorgehen darin, fort zu fahren, solange U*(1,r) > r/n Problem: Festlegung von U*(1,r) Lösung: De Groot, Optimal Statistical Decisions, Mc Graw-Hill, 1970. Einfachere Lösung: Janko (1976) Suchkosten können in diesen Modellen berücksichtigt werden, müssen jedoch gegen Rangnutzen verrechenbar sein. Weitere Untersuchungen: Gilbert & Mosteller, Lindley, Chow & Merignti (?), Janko, u.a.

2). Einführung in optimales Stoppen bei der Verteilungsfunktion F(x) 2) Einführung in optimales Stoppen bei der Verteilungsfunktion F(x) und Dichte f(x) die stetig und bekannt seien a) Keine Erinnerung und unbeschränkter Stichprobenumfang Beobachter kann jedem Objekt (Alternative) nicht nur den Rang, sondern konkreten Nutzwert zuordnen (Verteilung sei bekannt). α) Die Transformation TF Sei F eine Verteilungsfunktion in 1 mit endlichem Mittel. Es gelte (T kann als eine Transformation von F gesehen werden) Eigenschaften:

y y = TF(s)  konvexe Funktion! y = μ - s μ s Es gilt: TF(s) = 0  W (Y > s) = 0 TF (s) = μ – s  W (Y < s) = 1 Für diskretes F ist TF eine Treppenfunktion. Beispiele: F = N (0,1) und - < s < +

Fortsetzung: Nun gilt: E [max {X,s}] = s + TF(s) „Ziehen“ wir nun Alternativen ohne Beschränkung, so muss gelten: Stoppe, wenn X ≥ v* und setze fort, wenn X < v* mit v* bestimmt durch: v* = E [max {X, v*}] - c Hieraus folgt für die Bestimmungsgleichung v* = v* - TF(v*) - c oder die Gleichung TF(v*) = c bestimmt v*. Für c > 0 (und endliche Varianz von F) und unter den Vorraussetzungen von T gilt: Es gibt genau ein v*, welches diese Bedingung erfüllt! Wir können zeigen, dass der erwartete Ertrag dieser Politik v* ist. Politisch ist optimal für unbeschränkte Ziehungen mit und ohne Erinnerung.

b) Beschränkter Stichprobenumfang n und ohne Erinnerung Für j = 1, 2, … n bezeichne vj das Maximum an erwartetem Nutzen, wenn j Beobachtungen bleiben und wir optimal fortfahren und mindestens noch eine Beobachtung machen. Haben wir eine weitere Beobachtung gemacht (X), so ist der erwartete Gewinn von optimaler Fortsetzung unter j – 1 Ziehungen gleich Vj-1 (X). Also gilt für vj: Da Vj (x) für j = 1, 2, … n das Maximum aus Stoppen und Fortsetzung ist, muss gelten: Vj(x) = max { x, vj}

Weiters gilt offenbar: V0(x) = x (man nimmt was kommt). Also kann vn als Erwartungswert der Politik und die Stoppwerte vi (i = 1, 2, … , n) von 0 nach n errechnet werden. Nun gilt: (mit Kosten e) vj+1 = E (Vj (x)) = E (max {x, vj}) – c) = = vj + TF (vj) – c und v1 = E (X) – c Wir erhalten daher folgende Politik: Fortsetzung, wenn xj < vn-j stoppe für xj ≥ vn-j Erwartungswert der Politik: vn

TEAMTHEORIE – eine Einführung = Teil der normativen Entscheidungstheorie Gegenstand der Untersuchung: a) Vergleich verschiedener Organisationsformen b) Vergleich der Kommunikations- und Informationsformen hinsichtlich der Zweckmäßigkeit c) adäquate Formulierung von Kompetenzen und Kriterien Historische Basis: Ansatz von Marschak (1954) Ausarbeitung: Marschak/Radner, Economic Theory of Teams, Cowles Foundation Monography, 1972. Teamtheorie behandelt nicht: Fragen der Aufbauorganisation Zielbildungs- und Abstimmungsphase Teambildung etc.

Definition: „Teamtheorie ist eine Entscheidungstheorie bei vorgegebenen Gruppen mit konfliktfreier Zielsetzung, konstanter Aufgabenteilung, variabler Kommunikations- und Informationsstruktur und mehreren Alternativen bei ein-periodischem Ansatz.“ Ziel: Aufsuchen einer Menge von Regeln, die die optimale Kombination von Beobachtungs-, Kommunikations- und Entscheidungsregeln darstellen.

Definition eines Teams Sei s Argument und S Wertevorrat von s. Die Gruppenmitglieder werden mit i und die Gruppe mit σ indiziert. Wir verlangen, dass gilt: i i 1) a) Für alle s, s‘  S gilt s‘  s oder s  s‘ für i = 1, 2, …, n. ~ ~ i i i b) Falls s‘  s und s‘‘  s‘ gilt, so gelte s‘‘  s für i = 1, 2, …, n. ~ ~ ~ 2) Wie 1) nur für die Gruppe Bemerkung: 1) und 2) sichern die Transitivität und Vollständigkeit der schwachen Präferenzrelationen der Gruppenmitglieder und der Gruppe. 3) Gilt s‘ s, Vi, so gelte s‘ s (Pareto-Optimalität (?)) 4) s‘ s gilt genau dann, wenn s‘ s, Vi. Bemerkung: Gilt nur 1), 2), 3)  Foundation gilt 1), 2b), 3)  Koalition i  ~ σ  ~ i  ~ σ  ~

Entscheidungsmodell: Mσ sei ein Team im Sinne des obigen Axiomensystems. Mitglieder: M1, M2, …., Mn Jedes Teammitglied Mi kontrolliere eine Entscheidungsvariable ai, die Werte in der aus wenigstens zwei Elementen bestehenden Menge Ai aller möglichen Entscheidungen des Mitglieds annimmt. a = (a1, a2, …, an):  Entscheidungsvektor des Teams Resultat z einer Teamentscheidung hängt von Umweltvariabler x, der Wahrscheinlichkeiten p zugeordnet sind, ab. Y1, Y2, …., Yn seien Teilmengen der Potenzmenge von X P (X). (i) Yi  X sei die Menge der tatsächlich von Mi beobachtbaren Umweltzustände.

i sei eine Funktion von X nach Yi, die den „beobachtungspflichtigen“ Ausschnitt für Mitglied Mi angibt. Mi beobachtet yi = i(x) mit yi  Yi. Yij ist die Menge an Informationen, die Mitglied Mi an Mitglied Mj mit der Nachricht mij weitergibt. mi = (mi1, …., min) mit mij = Yij bezeichnet die von i an 1, 2, … , n übergebenen Nachrichten. (m‘i = (m1i, m2i, …, mni) bezeichne die empfangenen Nachrichten) RIi sei eine Regel, welche für jedes yi und Mi angibt, in welchem Umfang die Teammitglieder zu informieren sind; (Kommunikationsregel). Es gelte mi = R5i(y) und RI = (RI1, …, RIn) ist der Satz von Beobachtungsregeln des Teams.

Für Mitglied Mi entstehen Kommunikationskosten ci(mi) Für Mitglied Mi entstehen Kommunikationskosten ci(mi). Es gelte c(m) =  ci(mi). Zudem entstehen fixe Netzwerkkosten C(N). {i} Es sei ηi eine Funktion ηi : x  y die angibt, welchen Wissensstand über die Umwelt das Mitglied Mi nach Beobachtung und Kommunikation besitzt. Es gilt also: η0 = (η1, …, ηn) heißt Informationsstruktur des Teams. RIIi seien die Entscheidungsregeln für Mi für jeden Wissensstand; Es gilt: ai = RIIi(m‘i) = RIIi (ηi(x)) RII = (RII1; …., RIIn) ist der Satz von Entscheidungsregeln des Teams.

Resultat der Teamtätigkeit: Nutzen (bzw. Gewinn): z Nettogewinn v = z (x,a) – (c(m) + C(N)) Wegen a = RII(m‘) und m = RI(y) und Y = (x) gilt bei C(N) = 0 v = v [x; RI, RII; , z, c] Weitere Annahme: Risikoneutralität F(x) sei die Verteilung über x. Es gilt dann: V =  v (x; RI, RII; , z, c) d F(x) = V (RI, RII; , z, c, p) RI und RII sind so zu wählen, dass bei vorgegebenem , z, c, p der Nettogewinn V maximiert wird.

Beispiel (Marschak 1959 und Baetge, H. f. BWL) Werft Dock A: Dock B: Stundenlohn gleich Hohe Lohnkosten Unternehmensführung (≡ Team): 1. Produktionsmanager 2. Markt Ost 2 Produktmanager (Handelsvertreter) 3. Markt West Verkaufssituation (Umwelt): 1 Angebot pro Monat für 1 Schiff (nur 1 Typ) Optimale Regeln abhängig von: variable Produktionskosten Wahrscheinlichkeitsverteilung der Preisangebote Kommunikationskosten

Variable Produktionskosten: A: 35 Ge B: 20 Ge Produktionskapazität: 1 Schiff je Periode A priori Umweltzustandsverteilung: Ost (= 39) (=21) West Hochpreis Niedrigpreis (= 31) Hochpreis 0,4 0,1 (= 29) Niedrigpreis 0,1 0,4 Tendenz: Gleiche Preisentwicklung auf beiden Märkten

Kommunikationskosten: 0,5 Ge je Kommunikationskontakt Also: : Satz von Beobachtungsregeln Es sind nur Preise auf Ostmarkt und bzw. oder die Preise auf dem Westmarkt zu beobachten. z: Bruttogewinn = Erlös – var. Produktionskosten c: var. Kommunikationskosten p: a priori Verteilung fest und bekannt

zu RI: Satz von Kommunikationsregeln:

Kommunikation inhaltlich: P Mi  Mj (i = 1, 2 und j = 1, 2, 3 und i ≠ j) P = Preisinformation unter Preis auf Markt EA Mi  Mj (i = 1, 2, 3 und j = 1, 2 und i ≠ j) EA = Anweisung, ein Angebot anzunehmen. EP Mi  Mj: Mi weist Mj über Produktionsort an. (i = 1, 2 und j = 3) Information Entscheidung Angebot Entscheidung Produktion zu RII: Entscheidungsregeln Entscheidungsregel über die Frage des „Wer“ entscheidet. + Entscheidungsregel über die Frage des „Wie“.

Folgende personelle Varianten: zentrale Entscheidung: 1 Teammitglied entscheidet über Angebote (PM, HVO, HVW) dezentrale Entscheidung: mehrere Teammitglieder (hier: beide HV) entscheiden Informationsvarianten: ohne Kommunikation vollkommene Information durch perfekte Kommunikation partielle Information durch partielle Kommunikation

˙/. Lösung durch Totale Enumeration Kommunikation Vollk. Inf. d. Entscheiders Teilw. Kommunikation Ohne Kommunikation Entscheidung HVW inf. PM HVO inf. PM PM 1 P HVO  PM HVW  PM EA PM  HVO PM  HVW 4 PM  HVO PM  HVW 5 HVO  PM 7 ˙/. HVO 2 HVW  HVO HVO  HVW 6 8 EP HVO  HP HVW 3 9

Zu 1:. Es gibt 4 Umweltzustände und 16 Alternativen (=24. ) der Zu 1: Es gibt 4 Umweltzustände und 16 Alternativen (=24!) der Preisannahme auf jedem Markt; z. B. heiße Preisk.: 1 = Hoch + Hoch 2 = Hoch + Tief 3 = Tief + Hoch 4 = Tief + Tief Also gibt es 16 x 16 = 256 Entscheidungsregeln für beide Märkte. (1 2 3 4) 1 0 0 1 Preiskonstellation 1 und 4  Angebote, können akzeptiert werden usw.

Tabelle der Entscheidungsmöglichkeiten auf 1 Markt bei vollständiger Information Ost Hoch Hoch Tief Tief West Hoch Tief Hoch Tief Alternativen auf 1 Markt 1 2 3 4 1 1 1 1 1 2 0 0 0 0 3 1 0 0 0 4 0 1 0 0 5 0 0 1 0 6 0 0 0 1 7 1 1 0 0 8 1 0 1 0 9 1 0 0 1 10 0 1 1 0 11 0 1 0 1 12 0 0 1 1 13 1 1 1 0 14 1 1 0 1 15 1 0 1 1 16 0 1 1 1

Hier optimal: Ost = 1 1 0 0 und West = 0 0 1 1 d. h. akzeptiere in Ost bei Preiskonstellation 1 und 2 und in West bei Preiskonstellation 3 und 4. Nettogewinn: V = (39 – 20) · 0,4 + (39 – 20) · 0,1 + (31-20) · 0,1 + (29 – 20) · 0,4 – 0,5 · 4 = 12,2 Ge Kommunikationskosten 2 und 3: Optimal wie 1; Nettogewinn jedoch 12,7, da ein Kommunikationskontakt weniger existiert.

Zu 4: Alternativen an Entscheidungsregeln Ost West für jeden Markt Annahme bei jedem Westpreis Ablehnung bei jedem Westpreis Annahme bei hohem Westpreis Annahme bei niedrigem Westpreis Gewinne: West Ost a b c d a 3,5 8,5 6,5 5,5 b 8,5 -1,5 4,0 3,0 c 8,7 6,2 4,2 10,7 d 3,3 0,8 6,3 -2,2

Also Entscheidungsregel für PM Nimm 1 Angebot pro Monat: von Ost  wenn Westpreis hoch von West  wenn Westpreis nieder Nettogewinn: 0,4 (39 – 20) + 0,1 (21 – 20) + 0,5 (29 – 20) – 1,5 ~ 10,7 zu 5: Optimale Regel Nimm 1 Angebot je Monat: von Ost  wenn Ostpreis hoch von West  wenn Ostpreis nieder 0,5 (39 – 20) + 0,4 (29 – 20) + 0,1 (31 – 20) – 3 · 0,5 = 12,7 Ge zu 6, 7 und 10 Sinngemäß leer

Dezentrale Entscheidung 10 Entscheider sind HVW und HVO für ihren Markt und Produktion

Felder 8 und 9 HV kann sich nur an den Preisen des Marktes orientieren, den der HV beobachten kann (West und Ost). Daher 16 Entscheidungsregeln: (1 2 3 4) in beliebiger Kombination. Optimale Regel 8: - Osten bei Hochpreis annehmen +  Westen Ablehnung anordnen - Osten bei Niedrigpreis ablehnen +  Westen Annahme anordnen Nettogewinn: (2 Kommunikationskontakte) 13,2 Ge Optimale Regel 9: - Westen bei Hochpreis ablehnen + Osten Annahme befohlen - Westen bei Niedrigpreis annehmen + Osten Ablehnung befohlen Nettogewinn: 11,2 Ge Feld 11: Mit Feld 1 insgesamt identisch.

Feld 12 HVO perfekt informiert HVW unvollständig informiert Ost West  16  4 Entscheidungsregeln beste Regel: Kombination: Ost  Regel 13 West  d Nettogewinn: 11,1 (= Ost: Angebot annehmen, wenn Preis… (?) 1, 2 oder 3 eintritt West: Auftrag annehmen, wenn Preis nieder) Feld 13: Entspricht Feld 2 und 3. Regel ist aufzuteilen. Feld 14: Jeder HV hat 4 mögliche Entscheidungsregeln: a, b, c, d Optimale Regel: Ost  C West  d

·/· Art der Entscheidung Zentrale Entscheidung Dezentrale Entscheidung Grad der Kommuni-kation Zu vollkomme-ner Information des Entscheiders führende Kommuni-kation über Preise Teilweise Kommunikation über Preise Ohne Kommu-nikation über Preise Zu vollkomme-ner Information der Entscheider führende Kommuni-kation über Preise Ohne Kommuni-kation über Preise Person des Entscheiders HVW inform. PM HVO inform. PM HVW inform. HVO HVO inform. HVW PM 1) P HVOPM HVWPM EA PMHVO PMHVW 4) 5) 7) ·/· 10) HVO 2) HVWHVO HVOHVW EP 6) 8) 11) 12) 13) 14) HVW 3) 9)

Schaub 13: Zusammenstellung der optimalen R11 bei alternativen R1

Fortsetzung:

Eine Einführung in die Allokation von Mitteln mit suchtheoretischen Methoden Das Neyman-Pearson Lemma der statistischen Testtheorie Einführungsbeispiel: 1 Würfel werde zweimal geworfen; es kann sich bei dem geworfenen Würfel um einen idealen Würfel mit der Wahrscheinlichkeitsfunktion: f (x = i) = für i = 1, 2, …. 6 (Hypothese H0) oder um einen gefälschten Würfel mit 1 — für i = 1, 2, 3, 4, 5 30 f (x = i) = (Hypothese H1) 5 — für i = 6 6 handeln. 1 — 6

Um diese Frage zu entscheiden, werde mit dem Würfel zweimal geworfen Um diese Frage zu entscheiden, werde mit dem Würfel zweimal geworfen. Das Ergebnis soll dann dazu herangezogen werden, um zu beurteilen, ob H0 oder H1 richtig ist. Ist H0 richtig, so soll die Wahrscheinlichkeit für eine Fehlentscheidung höchstens sein. Ist H1 richtig, so soll die Wahrscheinlichkeit einer Fehlentscheidung minimiert werden. 5 — 36

H0: W (i, j) = 1/36 für i, j  {1, 2, …, 6} H1: W (i, j) = 1/900 für i, j  {1, 2, 3, 4, 5} W (i, j) = 5/180 für i  {1, 2, …, 5} und j = 6 oder j  {1, 2, …., 5} und i = 6 W (i, j) = 25/36 für (i, j) = (6,6). W (i, j | H1) Wir bilden Koeffizienten: ————— es gibt 3 Werte: 25, 1, 1/25. W (i, j | H0)

Wir ordnen die Punkte nach den Koeffizienten: Kritischer Bereich: (6,6), (5,6), (6,5), (6,4), (4,6). (6,3), (3,6), …. , (5,5), …. Zum Testen einfacher Hypothesen: H0: f0 (x1, …. xn) ist die Dichte (Wahrscheinlichkeitsfunktion der Grundgesamtheit). H1: f1 (x1, …..xn) ist die Dichte (Wahrscheinlichkeitsfunktion der Grundgesamtheit). (H0: Nullhypothese; H1: Alternativhypothese). f0, f1: Zwei „Naturzustände“.

Zwei Fehlerarten in der Entscheidung: Entscheidung: f1 ist richtig. 1) Fehler erster Art: Tatsächlich: f0 ist richtig. Entscheidung: f0 ist richtig. 2) Fehler zweiter Art: Tatsächlich: f1 ist richtig.

Klassisches Testen: a) Fixieren des maximalen Fehlers erster Art! = α (oft: 0,05; 0,01; 0,001) b) Finden des Bereichs W* im Stichprobenraum, für den gilt: (1)  …  f0(x1, …. xn)  α W* und (2)  ….  f1(x1, ….xn) ist maximal unter allen Bereichen W, die ´ W* (1)erfüllen. Bemerkung: Jeder Bereich W, für den (1) erfüllt ist, heißt KRITISCHER Bereich. Der Bereich W* unter den Bereichen W  W, für den gilt: Macht des Tests  ….  f1(x1, … xn)   ….  f1(x1, …. xn) W* WW heißt MÄCHTIGSTER kritischer Bereich.

N-P Fundamentalsatz f0(x1, …. xn), f1(x1, …. xn) seien zwei Dichten bzw. Wahrscheinlichkeits-funktionen einer GEMEINSAMEN absolut stetigen bzw. diskreten Verteilung. W sei die Menge aller Teilmengen W des Stichprobenraumes, für die gelte:  f0(x1,….xn)  α (diskret) (x1,…xn)W bzw.  ….  f0(x1, ….xn)  α (absolut stetig) W mit 0 < α < 1. Es existiere ein W*  W, sodass für ein k  0 gilt:

Dann folgt  f1(x1, ….xn)   f1(x1,….xn) (x1….xn)W* (x1….xn)W bzw.  …  f1(x1, ….xn)   …  f1(x1,….xn) W* W für alle W  W; d. h. W* ist der (bzw. ein) mächtigste(r) kritische(r) Bereich! Zum Beweis: Stetig: Wir schreiben f0 = f(x1, ….xn | H0) f1 = f(x1, ….xn | H1). Da W, W*  W gilt:  …  f0 =  …  f0 W* WW

Beschränken wir unsere Betrachtungen auf Wegen W* W W (W*)c W* Wc W W* Beschränken wir unsere Betrachtungen auf  …  f0 =  …  f0 (a  W, c  W*) a c

β: Macht des Tests: β* =  …  f1; β =  …  f1; W* W β* - β =  …  f1 -  …  f1=  …  f1 -  …  f1. W* W c a Aus der Definition von a (a  W* = ) folgt, dass für die Wahrscheinlichkeit jedes Punktes x in a gilt: also  …  f1  k  …  f0. a a Weiters folgt für jeden Punkt x  c: also k  …  f0   …  f1. c c

Hieraus erhalten wir: α (Fehler erster Art) β* - β  k ·  …  f0 - k ·  …  f0 daher β*  β c a 0 (siehe oben) Q.E.D. Beispiel: f(x|) = e-x, x  0,  > 0; (Exponentialdichte!) H0: =  = 0; H1: =  < 0. Die n.dim. Dichten sind:

Nach obigem Theorem gilt für den mächtigsten kritischen Bereich W*: wir erhalten Für n = 1, θ0 = 2 und θ1 = 1 erhalten wir: e(1-α) (z. B.: α = 0,05: 1-e-12k = 0,05  ——— = k0,05 = Fehler zweiter Art) 2

f1 (log 2 k) ————— = k2 f0 (log 2 k) W* log 2 k (W*)c x = 0,1  f1(x) = 1,637… x = 1  f1(x) = 0,27… f0(x) = 0,904…; f0(x) = 0,36…

Das Neyman-Pearson-Lemma als Optimierungstheorem f0 werde ersetzt durch Kostenfunktion c(x); f1 werde ersetzt durch Ertragsfunktion e(x). W ist nun die Menge aller Produktmengen mit  c(x)dx  C und W W*  W ist jenes Element W, für welches gilt:  e(x)dx = max {  e(x)dx}. W* WW W D. h.  e(x)dx wird maximiert, unter der Nebenbedingung W*  c(x)dx  C

Dies erreicht man einfach dadurch im diskreten Fall, dass man die Punkte in der Reihenfolge absteigender Quotienten heranzieht: Beispiel der Anwendung: 1 2 ……………………………………………………. r r Orte

E αi (i=1,….r) = NICHT-Erkennungswahrscheinlichkeit. V pi (i=1,….r) = a priori Vorkommenswahrscheinlichkeit. +/U  1 Wir suchen in j und das Objekt werde nicht gefunden: Die Posterior Wahrscheinlichkeit p*j ist (Bayes‘sches Theorem): A = nicht entdecken H1 = befindet sich auf j H2 = befindet sich nicht auf j i ≠ j. Suchkosten: ci (i = 1, 2, ….r).

L (p1….pr) seien die erwarteten Kosten des Suchprozesses. Wird im ersten Suchschritt j abgesucht, so ist die Suche mit Wahrscheinlichkeit pj (1 – αj) erfolgreich, oder die Suche ist mit Wahrscheinlichkeit pj αj + (1 – pj) nicht erfolgreich. Wird es nicht gefunden, so sind die erwarteten Kosten L (p*1, …. p*r), wobei p*i die posterior-Wahrscheinlichkeiten sind. Die optimale Wahl des ersten Suchfeldes ist bestimmt durch: L (p1, …. pr) = min {cj + (pj αj + (1-pj)) L (p*1, …. p*r)} j=1,…r

Beweisbar: L (p1, …. pr) <  und L (p1, … pr)  r r pi  (  ci)  —— ! i=1 i=1 1-αi Kosten erstes Mal erwartete Finde-Zeit alle r Felder abzusuchen gewichtet mit pi Lösung des Problems mit N-P-Satz: ij = pi αij-1 (1 – αi) = Wahrscheinlichkeit, Objekt bei j-ter Suche im Feld i zu finden.

 sei eine Suchpolitik; g() sind die erwarteten Kosten der Politik : Kosten der n-Versuche Wahrscheinlichkeit, beim n-ten Versuch zu finden i = Kosten der Suche im i-ten Suchschritt = (ci) m = Wahrscheinlichkeit, Objekt im m-ten Schritt zu finden = (ij) Beweis: M N 1 2 3 4 …. 1 1 - 2 1 2 - 3 1 2 3 - 4 1 2 3 4 - . . . . .

N-P-Lemma: Suche gemäß —  —  …..  —  ….. 1 2 n für alle Werte von (i,j) (!) in ij. Numerisches Beispiel: p1=0,1 p2=0,3 p3=0,1 p4=0,2 p5=0,3 V c1=3 c2=4 c3=1 c4=2 c5=3 K 1=0,8 2=0,7 3=0,5 4=0,6 5=0,9 E

ij — Ci 5 1 2 7 3 4 6

Beweis, dass g () minimal für 1 2 (1) —  —  … 1 2 n n+1 Es gelte — > —— für ungleiche Suchfelder. n n+1  sei die Politik, die durch (1) bestimmt ist. ‘‘ sei die Politik, die darin bestehe, den (n+1)-ten Schritt von  zum n-ten Schritt zu machen und umgekehrt. g() = 1 + 2 (1-1) + 3(1-1-2) … g() – g(‘‘) = n (1-1-2-…- n-1) + n+1 (1-1-2-…- n) - n+1 (1-1-2-…-n-1) - n (1-1-2-…-n-1-n+1) = - n+1n + nn+1; wegen nn+1 > n+1n gilt g() – g(‘‘) < 0 oder g() < g(‘‘). Q.E.D.

E) Sachmittel-Einsatz-Planung 1) Der Neyman-Pearson‘sche Fundamentalsatz Ein Satz zur optimalen Verteilung der Ressourcen Nicht-lineare funktionale Version des Neyman-Pearson-Lemmas (d. h. Wagner/SIAM Review, 1969, p. 52 ff.) a, b  1; -   a < b  +. l(x) und u(x) seien Funktionen auf (a,b) derart, dass -  l(x)  u(x)  + für a < b. Problem: Finde eine Funktion f auf a < b, die, beschränkt durch u(x)  f(x)  l(x), E(f) als Integral einer Punkteeffizienz- funktion e maximiert unter der Nebenbedingung, dass C(f), Integral über eine Punktfunktion c einen „Kostenbeitrag“ nicht übersteige.

D2e(x,y) ———— = k D2c(x,y)

Satz: e und c seien reellwertige Funktionen auf 2 Variablen, definiert auf (1) {(x,y) | a < x < b, l(x)  y  u(x) und - < y < +, deren partielle Ableitungen nach y auf (1) existieren; wir bezeichnen diese mit D2e und D2c. Für jedes fixe x  (a,b) nehmen wir D2e(x…) und D2c(x…) als Riemann integrierbar an auf jedem beschränkten Subintervall auf (l(x), u(x)). Es sei  die Menge aller reellwertigen Funktionen f auf (a,b) derart, dass l(x)  f(x)  u(x) für a < x < b für welche b - < E(f)   e(x,f(x))dx < +, a (2) - < C(f)   c(x,f(x))dx < +;

(2) definiert die Funktionale E(f) und C(f) und impliziert die Existenz des Integrals. Es sei nun g   eine Funktion mit folgender Eigenschaft: es existiert ein  > 0, sodass für alle x  (a,b): (3) D2e(x,y)  D2c(x,y) für g(x) < y < u(x) gilt, und (4) D2e(x,y)  D2c(x,y) für l(x) < y < g(x) . Dann folgt (5) E(g) = max {E(f) | f   und C(f)  C(g)} (6) C(g) = min {C(f) | f   und E(f)  E(g)}.

Beweis: Für a < x < b gilt wegen (3) gilt für g(x) < y < u(x): D2e (x,y)  D2c (x,y). Daher gilt:

Wegen (4) gilt für l(x) < y < g(x): D2(e(x,y))  D2(c(x,y)) (I) e(x,f(x)) – e(x,g(x))  (c(x,f(x)) – c(x,g(x))).

) Beweis von (5) Hieraus folgt, wenn f   und C(F)  C(g): b E(f) – E(g) =  (e(x,f(x)) – e(x,g(x)) dx  a    (c(x,f(x)) – c(x,g(x))) dx =  (C(f) – C(g))  0. d.h. E(f)  E(g) womit (5) bewiesen ist.

) Beweis von (6) Wegen der Voraussetzung der Eigenschaft E(f)  E(g) folgt für f   auf Grund obiger Ausführungen: 0  E(f) – E(g)   (C(f) – C(g))  0  E(g) – E(f)  (C(g) – C(f)) (mult. mit -1) Und hieraus wieder: C(f)  C(g) womit (6) bewiesen ist.

DISKRETE VERSION Seien e und c reellwertige Funktionen zweier Variabler auf {(x,j) | a < x < b, l(x)  j  u(x), j  Z}. Sei  die Menge aller ganzzahligen Funktionen f auf (a,b) derart, dass l(x)  f(x)  u(x) für a < x < b, für die (2) gilt (Funktionaldefinition). g   habe folgende Eigenschaft: es existiert ein  > 0 derart, dass für alle x  (a,b) und ganzen Zahlen j e(x,j) – e(x, j - 1)  [c (x,j) – c(x, j - 1)] für g(x) < j  u(x), e(x,j) – e(x, j - 1)  [c (x,j) – c(x, j - 1)] für l(x)  j – 1 < g(x). Es gilt dann (5) und (6). Zum Beweis: Beweis wie oben, nun für x  (a,b) und ganze Zahlen i  [g(x), u(x)] erhalten wir i e(x,i) – e(x,g(x)) =  [e(x,j) – e(x, j – 1)] j=g(x)+1 bzw. Analoges für i  [l(x), g(x)] und c(x,…).

Diskretes Beispiel: Ein System sei charakterisiert durch ein n-Tupel m = (m1, …. mn) von nichtnegativen ganzen Zahlen mit der Effizienz E (m) und den Kosten C(m): n n E(m) =  imi und C(m) =  m2i. i=1 i=1 Um die Kosten-Effizienz-n-Tupel zu finden, wenden wir die diskrete Version an und ersetzen (a,b) durch {1, 2, ….n}. Für i=1, …. n gelte l(i) = 0; u(i) =  und e(i,j) = ij und c(i,j) = j2 für j = 0, 1, ….

Wir ermitteln KONTUREN konstanter Differenz: e (i,j) – e (i,j – 1) i = =  c (i,j) – c (i,j – 1) 2j-1 i  = —— 2j-1

C (m) = m2i E (m) = imi Aufzählung: m1 m2 m3 C E E/C 0 0 1 1 3 3 C = 1 0 1 0 1 2 2 1 0 0 1 1 1 0 1 1 2 5 2,5 C = 2 1 0 1 2 4 2 1 1 0 2 3 1,5 1 1 1 3 6 2 -C = 3 1 1 2 6 9 9/6 = 1,5 C = 4 1 2 1 6 8 1,33 2 1 1 6 7 7/6 1 2 2 9 11 11/9 C = 5 0 1 2 5 8 8/5 0 0 2 4 6 1,5

Num sei n = 3  = 1/3 i =  2j – 1 Ist abnehmend in j für festes i.  = 5/8  = 1

D2 e (x, y) (Analog wurden im stetigen Falle die Kurven r = gebildet.) D2 c (x, y) Die Effizienzfunktion ist in diesem Fall ein Tripel: (f1, f2, f3); für  = 1. z. Bsp: m1 m2 m3 0 0 1 0 1 1 1 1 1 1 1 2 1 2 2 1 2 3 1 2 4 1 3 4 1 3 5 2 3 5 E 3 5 6 9 11 14 18 19 22 23 C 1 2 21 26 35 38

E (m) Neyman-Pearson (Lagrange Multipl.) Kosten-Effizienz-Tupel Andere Tupel C (m) Kleinstes m12 + m22 + m32 für m1 + 2m2 + 3m3, welches nicht kleiner als die Ordinate ist.

LITERATUR Schwerpunktliteratur: Bamberg, G. und Coenenberg, G.A., Betriebswirtschaftliche Entscheidungslehre, Vahlen, München 1974. Ferschl, F., Nutzen- und Entscheidungstheorie, Westdeutscher Verlag, Opladen 1975. Mehlhorn, K., Effiziente Algorithmen, B.G. Teubner, Stuttgart 1977 (insbesondere S. 1 – 69, S. 87 – 229)

Ergänzende Literatur: Aho, A.V., Hopcroft, J.E. and Ullmann, J.D., The Design and Analysis of Computer Algorithms, Addison Wesley, 1974. Brucker, P., Approximative Verfahren zur Lösung von diskreten Optimierungsproblemen, in: Datenstrukturen, Graphen, Algorithmen, WG 77, Linz 1977. De Groot, M., Optimal Statistical Decisions, McGraw Hill, NY 1970. Fandel, G., Optimale Entscheidungen bei mehrfacher Zielsetzung, Berlin 1972. Karp, R.M., Probabilistic Analysis of Partitioning Algorithms for the Travelling-Salesman Problem in the Plane, Mathematics of Operations Research, Vol. 2, No. 3, p. 209 – 224, 1977. Lewis, H.R. and Papadimitriou, C., The Efficiency of Algorithms, Scientific American, Vol. 1, p. 96 – 109, 1978. Marschak, J., Elements for a Theory of Teams, Management Science, Vol. 1, p. 127-137. Menges, G., Grundmodelle wirtschaftlicher Entscheidungen, Westdeutscher Verlag, Opladen 1974 (2. Auflage).