John C. Knight (University of Virginia)

Slides:



Advertisements
Ähnliche Präsentationen
Algorithmen und Datenstrukturen
Advertisements

Developing your Business to Success We are looking for business partners. Enterprise Content Management with OS|ECM Version 6.
Phasen und ihre Workflows
Programmieren im Großen von Markus Schmidt und Benno Kröger.
Vorlesung: 1 Betriebliche Informationssysteme 2003 Prof. Dr. G. Hellberg Studiengang Informatik FHDW Vorlesung: Betriebliche Informationssysteme Teil3.
LS 2 / Informatik Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
LS 2 / Informatik Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
CPCP Institute of Clinical Pharmacology AGAH Annual Meeting, 29. Februar 2004, Berlin, Praktischer Umgang mit den Genehmigungsanträgen gemäß 12. AMG Novelle.
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2012.
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2011.
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2011.
Einführung in Berechenbarkeit und Formale Sprachen
1 JIM-Studie 2010 Jugend, Information, (Multi-)Media Landesanstalt für Kommunikation Baden-Württemberg (LFK) Landeszentrale für Medien und Kommunikation.
Scratch Der Einstieg in das Programmieren. Scatch: Entwicklungsumgebung Prof. Dr. Haftendorn, Leuphana Universität Lüneburg,
Erfahrungen aus Tests komplexer Systeme
Algorithmentheorie 04 –Hashing
WS Algorithmentheorie 02 - Polynomprodukt und Fast Fourier Transformation Prof. Dr. Th. Ottmann.
Grundkurs Theoretische Informatik, Folie 2.1 © 2006 G. Vossen,K.-U. Witt Grundkurs Theoretische Informatik Kapitel 2 Gottfried Vossen Kurt-Ulrich Witt.
Internet facts 2008-II Graphiken zu dem Berichtsband AGOF e.V. September 2008.
Vorlesung: 1 Betriebssysteme 2007 Prof. Dr. G. Hellberg Studiengang Informatik FHDW Vorlesung: Betriebssysteme Hochverfügbarkeit (Einführung) 3. Quartal.
Vorlesung: 1 Betriebssysteme 2008 Prof. Dr. G. Hellberg Studiengang Mechatronik FHDW Vorlesung: Betriebssysteme Hochverfügbarkeit (Einführung) 2. Quartal.
Vorlesung: 1 Betriebliche Informationssysteme 2003 Prof. Dr. G. Hellberg Studiengang Informatik FHDW Vorlesung: Betriebliche Informationssysteme Teil2.
Selbstverständnis der Mathematik
Vererbung Spezialisierung von Klassen in JAVA möglich durch
PKJ 2005/1 Stefan Dissmann Zusammenfassung Bisher im Kurs erarbeitete Konzepte(1): Umgang mit einfachen Datentypen Umgang mit Feldern Umgang mit Referenzen.
Astronomisch, Physikalische und Mathematische Geodäsie II
AC Analyse.
Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
Rechneraufbau & Rechnerstrukturen, Folie 12.1 © W. Oberschelp, G. Vossen W. Oberschelp G. Vossen Kapitel 12.
Distanzbasierte Sprachkommunikation für Peer-to-Peer-Spiele
2 Distanzbasierte Sprachkommunikation für Peer-to-Peer-Spiele.
1. 2 Schreibprojekt Zeitung 3 Überblick 1. Vorstellung ComputerLernWerkstatt 2. Schreibprojekt: Zeitung 2.1 Konzeption des Kurses 2.2 Projektverlauf.
20:00.
© Gabriele Sowada © Gabriele Sowada 2 Manuell Beispiel 1 demonstriert die Vorgehensweise bei der manuellen Programm- Eingabe am.
Die Geschichte von Rudi
„Küsse deine Freunde“ – FlexKom-App teilen
Virtueller Rundgang Casa Mariposa in Playa del Coco.
Einführung in die beurteilende Statistik
LS 2 / Informatik Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
Dokumentation der Umfrage
für Weihnachten oder als Tischdekoration für das ganze Jahr
Where Europe does business Lück, JDZB | Seite © GfW NRW 252 a.
1 Ein kurzer Sprung in die tiefe Vergangenheit der Erde.
Jakis Überblick! Ein Viereck hat 4 Ecken (und 4 Seiten).
STATISIK LV Nr.: 1375 SS März 2005.
Analyse von Ablaufdiagrammen
PROCAM Score Alter (Jahre)
Geometrische Aufgaben
Vorlesung Mai 2000 Konstruktion des Voronoi-Diagramms II
Das ist die Geschichte eines kleinen Jungen aus der Schweiz.
1 (C)2006, Hermann Knoll, HTW Chur, FHO Quadratische Reste Definitionen: Quadratischer Rest Quadratwurzel Anwendungen.
Großer Altersunterschied bei Paaren fällt nicht auf!
Zahlentheorie und Zahlenspiele Hartmut Menzer, Ingo Althöfer ISBN: © 2014 Oldenbourg Wissenschaftsverlag GmbH Abbildungsübersicht / List.
MINDREADER Ein magisch - interaktives Erlebnis mit ENZO PAOLO
1 (C)2006, Hermann Knoll, HTW Chur, FHO Quadratische Reste Definitionen: Quadratischer Rest Quadratwurzel Anwendungen.
ENDLICHE KÖRPER RSA – VERFAHREN.
1 Mathematical Programming Nichtlineare Programmierung.
Imperfekt Wie sagt man das mit Imperfekt
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
SiLeBAT Sicherstellung der Futter- und Lebensmittelwarenkette bei bio- und agro-terroristischen (BAT)-Schadenslagen.
Tutorium Statistik II Übung IV Philipp Schäpers Mi – 11.45
Es war einmal ein Haus
Numbers Greetings and Good-byes All about Me Verbs and Pronouns
Musterlösung IT-Struktur an Schulen © Zentrale Planungsgruppe Netze am Kultusministerium Baden-Württemberg Software-Verteilung mit ZENworks 4 Regionale.
J-Team: Gymnasium Ulricianum Aurich und MTV Aurich Ein Projekt im Rahmen von UlricianumBewegt.de Euro haben wir schon…  8000 mal habt ihr bereits.
Datum:17. Dezember 2014 Thema:IFRS Update zum Jahresende – die Neuerungen im Überblick Referent:Eberhard Grötzner, EMA ® Anlass:12. Arbeitskreis Internationale.
1 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt Wie.
1 Medienpädagogischer Forschungsverbund Südwest KIM-Studie 2014 Landesanstalt für Kommunikation Baden-Württemberg (LFK) Landeszentrale für Medien und Kommunikation.
Monatsbericht Ausgleichsenergiemarkt Gas – Oktober
 Präsentation transkript:

An Experimental Evaluation of the Assumption of Independence in Multi-Version Programming John C. Knight (University of Virginia) Nancy G. Leveson (University of California, Irvine)

Inhalt 1 Wichtige Begriffe 2 Motivation 3 Einführung 4 Das Experiment 4.1 Programmierer-Hintergrund 4.2 Resultate des Experiments 4.3 Unabhängigkeitsmodell 4.4 Analyse der Programm-Defekte 4.5 Diskussion des Experiments 4.6 Fazit Folgen 6 Personen

(Achtung: nicht einheitlich) Wichtige Begriffe (Achtung: nicht einheitlich) Defekt / fault: Teil des Systems verhält sich nicht so wie es sollte, bedingt durch Hardware- oder Software-Fehler Fehlschlagen / failure: Gesamtsystem verhält sich nicht so wie es sollte, bedingt durch Defekt Fehler (-zustand) / error: Versagen der Hardware oder Software

Fehlertoleranz / fault tolerance: Systemeigenschaft, die bedeutet: Defekt wird so abgefangen, daß das gewünschte Systemverhalten gesichert bleibt: Defekt führt nicht zu Fehlschlag

2 Motivation N-Versionen-Programmierung (NVP) wurde lange Zeit als „die“ Methode angesehen, um fehlertolerante Software zu schreiben: Mehrere verschiedene Implementierungen einer Spezifikation werden parallel ausgeführt Die Ergebnisse werden gesammelt und von einer Entscheidungseinheit / Voter verglichen bei einer angenommenen Mehrheit gleicher Ergebnisse wird das mehrheitliche Ergebnis als korrekt angesehen

Fehlertoleranz ist immens wichtig bei sicherheitskritischen Applikationen, bei denen Menschen zu Schaden kommen können Die unbedingte Korrektheit des Mehrheitsergebnis beruht allerdings auf einer zentralen Annahme: Alle Fehlschläge passieren unabhängig voneinander  wenn ein Programm Fehlschläge zeigt, ist es nicht wahrscheinlich, dass dies auch die anderen Versionen tun

Falls Fehlschläge doch miteinander in Beziehung stehen, wird es wahrscheinlicher, dass mehrere Versionen zugleich fehlschlagen d.h. das Mehrheitsergebnis könnte falsch sein !

Bis 1985 galt die Unabhängigkeits-Annahme allgemein als wahr Wurde nie statistisch überprüft Wegen der Relevanz von sicherheitskritischen Systemen, die NVP benutzen, haben Knight/Leveson 1985 ein Experiment zur Überprüfung gestartet  Zeigte, dass die Annahme falsch ist

3 Einführung NVP Anforderungen separate, unabhängig voneinander erstellte „N“ Versionen Jede Version muss dieselbe Funktionalität besitzen daher braucht man ein gemeinsames Anforderungs-Dokument

NVP Anforderungen (2) Koordination, da die Versionen Daten an den Voter übermitteln Alle Design-Entscheidungen müssen unabhängig voneinander getroffen werden  sonst keine Vermeidung von gemeinsamen Design-Fehlern!

Nutzen von NVP Soll die Verlässlichkeit von Software erheblich erhöhen Analyse der NVP-Methode bzgl. Verlässlichkeit basiert auf der Annahme dass alle N Versionen unabhängig voneinander fehlschlagen dass also Defekte in den N Versionen zufällig vorkommen und nicht zueinander in Beziehung stehen

Nutzen von NVP (2) Folgerungen aus der Annahme: Wahrscheinlichkeit, dass zwei oder mehr Versionen auf der gleichen Eingabe fehlschlagen, ist sehr gering W-keit des Fehlschlagens eines NVP-Systems ist proportional zur mit N potentierten W-keit des Fehlschlagens der unabhängigen Versionen

Nutzen von NVP (3)  Verlässlichkeit des Systems könnte größer sein als die Verlässlichkeit der individuellen Komponenten  man könnte sich das aufwändige Testen und Validieren von Software sparen, indem einfach ein System aus genügend vielen Komponenten zusammengestellt wird

Nutzen von NVP (4) Ein um 1985 weit verbreiteter Gedanke war: man könne das Testen sicherheitskritischer Real-Zeit-Systeme vereinfachen indem zwei Software-Versionen produziert werden (nur zwei, weil teuer) und umfangreichen Tests unterzogen werden, ohne dass das Ergebnis von Hand auf Korrektheit überprüft werden muss !!!

Nutzen von NVP (5) Denn solange beide Ergebnisse übereinstimmen, wird das gemeinsame Ergebnis als korrekt angenommen

4 Das Experiment Fand statt mit Informatik-Studenten (graduate oder senior) an den Universitäten University of Virginia (UVA) und University of California at Irvine (UCI) Studenten sollten Programme zu einer ganz bestimmten Spezifikation schreiben  27 Programme (9 UVA und 18 UCI), die theoretisch für die gleiche Eingabe alle die gleiche Ausgabe liefern sollten

Alle 27 Programme wurden einer Million zufällig erzeugter Tests unterzogen Experiment sollte möglichst realistisch sein, daher wurde eine Applikation programmiert, die ein Kandidat für eingebaute Fehlertoleranz ist: Anti-Raketen-System einfach aber realistisch das zu lösende Problem stammt ursprünglich aus einem Luft- und Raumfahrtunternehmen

Anforderungen an das Programm Daten lesen, die Radarwerte darstellen Mittels einer Menge von Bedingungen entscheiden, ob die Radarwerte von einem bedrohlichen Objekt kommen oder nicht Wenn die Entscheidung für „bedrohlich“ ausfällt, soll ein Signal erzeugt werden, das den Abfangjäger aktiviert Problem ist der Fachwelt als „launch interceptor problem“ bekannt

Die Spezifikation Dies Problem war schon in anderen Experimenten benutzt worden Insbesondere ein NVP-Experiment mit N=3 am Research Triangle Institute (RTI) Die Spezifikation konnte wiederverwendet und dabei um einige Fehler reduziert werden  Die Spezifikation war also sorgfältig auf Fehler untersucht worden

Sicherstellen von Unabhängigkeit die Spezifikation wurde den Studenten gegeben keine bestimmte Softwareentwicklungs-Methode war vorgegeben Bedeutung von unabhängiger Entwicklung wurde betont, Studenten hatten Anweisungen nicht untereinander zu diskutieren Fragen der Studenten zur Spezifikation wurden individuell per Mail beantwortet

Studenten durften beliebige Referenzen benutzen  denn die Entwicklung von Algorithmen für die Applikation erforderte geometrisches Wissen und wahrscheinlich wären auch für kommerzielle Entwicklung Referenzen zu Geometrie benutzt worden

Eingabedaten Jede(r) Student(in) bekam 15 Sätze mit Eingabedaten plus die zu erwartenden Ausgaben zu Debug-Zwecken

Akzeptanz-Test Satz aus 200 zufallsgenerierten Testfällen, die jedes Programm durchlaufen musste Für jedes der 27 Programme ein eigener Satz man wollte verhindern, dass zuviele gemeinsame Defekte beim Akteptanz-Test herausgefiltert wurden Warum Akzeptanz-Test? Software aus realer Produktion würde auch ausführlichen Test unterzogen werden, um eine hohe Verlässlichkeit sicherzustellen

Test-Treiber für den Akzeptanz-Test Generierte zufällige Radarwerte und Zufallswerte für alle Parameter im gestellten Problem Es gab eine „Gold-Version“ („gold version“) Programm, das ursprünglich in FORTRAN für das RTI-Experiment geschrieben worden war nun neu geschrieben in Pascal im RTI-Experiment war die Gold-Version durch mehrere Millionen Testfälle gelaufen

Alle 27 Programme wurden gegen die Gold-Version getestet  so konnte man mehr Testfälle ausführen, weil die Ausgaben nicht manuell überprüft werden mussten Insgesamt wurden die 27 Programme plus die Gold-Version 1 000 000 Tests unterzogen Auf verschiedenen Maschinen an verschiedenen Orten (Mai bis September 1984)

Gold-Version wirklich verlässlich? Was, wenn der unwahrscheinliche Fall eintritt, und alle 28 Versionen inkl. Gold-Version die gleichen Fehlschläge zeigen: Das hätte keinen Effekt auf den Ausgang des Experiments unentdeckte gemeinsame Defekte würden nur das Fazit des Experiments bestärken

4.1 Programmierer-Hintergrund 14 Programmierer arbeiteten an ihrem Bachelor 8 Programmierer arbeiteten an ihrem Master (und hatte mindestens einen Bachelor) 4 arbeiteten an ihrem Doktor (und hatten mindestens einen Master) 1 Programmierer konnte nicht in die Analyse mit einbezogen werden

Von denjenigen mit Bachelor waren 4 aus Mathematik 3 aus Informatik je 1 aus Astronomie, Biologie, Umwelt-Wissenschaften, Management-Wissenschaften, Physik

Arbeitserfahrung der Programmierer in der Softwareentwicklung reichte von 0 bis über 10 Jahre Die meisten hatten nur ein paar Monate gearbeitet Bei Selbst-Einstufung ihrer Pascal-Fähigkeiten kam folgendes heraus: expert thorough fair limited 4 18 4 -

Programmierer sollten die Verlässlichkeit ihrer Programme schätzen  Schätzungen lagen alle zwischen 0.75 und 1.0 die meisten Programme stellten sich als verlässlicher heraus die Programmierer geschätzt hatten

4.2 Resultate des Experiments Für jeden Testfall berechnete jedes Programm 15x15 Boolean Arrays einen 15-elementigen Boolean-Vector eine einzelne Aktivierungs-Entscheidung für insgesamt 241 Resultate Die Aktivierungs-Entscheidung war die einzige echte Ausgabe Rest waren erforderliche Zwischenergebnisse

Qualität der Programme war ungewöhnlich hoch von den 27 Versionen hatten 6 gar kein Fehlerverhalten die anderen 21 bestanden mindestens 99% der Tests 23 der 27 waren erfolgreich bei mehr als 99.9% der Tests

Gemeinsame Defekte erstaunlicherweise gab es Testfälle, bei denen 8 der 27 Versionen fehlschlugen! Entgegen erster Vermutung waren die 8 Versionen nicht an derselben Universität entwickelt worden Alle entdeckten gemeinsamen Defekte wurden in Versionen von stets beiden Universitäten gefunden

4.3 Unabhängigkeitsmodell Es wurde ein Wahrscheinlichkeitsmodell für Unabhängigkeit von Fehlschlägen entwickelt und bewiesen, dass dieses Modell für das Experiment nicht gültig ist.

Hypothese: Für ein beliebiges gegebenes Programm wird angenommen, dass die Wahrscheinlichkeit eines Fehlschlags für jeden Testfall dieselbe ist. Um diese Hypothese auf ihren Wahrheitsgehalt zu testen, wurde aus der statistischen Definition für unabhängige Ereignisse [ pr(A|B) = pr(A) und pr(B|A) = pr(B) ] ein Modell entwickelt Für die Parameter im Modell wurden Werte aus dem Experiment eingesetzt

Die Wahrscheinlichkeitsverteilung des Modells konnte durch die standardisierte Normalverteilung gut approximiert werden In der standardisierten Normalverteilung liegt der 99%-Punkt bei x = 2.33 Die Statistik des Modells mit eingesetzten Parametern hatte allerdings den Wert 100.51  größer als 2.33 Also wurde die Hypothese mit einer Sicherheit von 99% verworfen.

Daraus schlossen Knight & Leveson, dass das Wahrscheinlichkeitsmodell nicht für das Experiment gültig ist. Da das Modell aus der Annahme von unabhängigen Fehlschlägen entwickelt worden war, wurde auch die Unabhängigkeitsannahme verworfen.

Warum wurden die Fehlschläge und nicht die Defekte berücksichtigt? Aus Operationssicht ist es egal, warum ein Programm fehlschlägt es zählt nur, dass ein Programm fehlschlägt Darum wurden die Defekte im Programmquelltext für die Überprüfung der Hypothese außenvorgelassen

4.4 Analyse der Programm-Defekte Knight & Leveson definierten: Defekt / fault ein Programmstück in einer bestimmten Version, das diese Version fehlschlagen lässt, wenn das Programmstück auf einem Testfall ausgeführt wird

insgesamt 45 Defekte entdeckt viele waren individuell, aber mehrere traten in mehr als einer Programmversion auf erstere Defekte werden nicht-korrelierend, letztere korrelierend genannt Details der Defekte sind komplex, daher hier nur ein erhellendes Beispiel (folgende Folie):

Man musste eine Annahme machen über den Winkel, den drei Punkte bilden Dabei waren drei Fälle zu unterscheiden Einer der Fälle war subtiler und wurde von mehr als einem Programmierer übersehen Keine Fehler der Spezifikation, sondern ein Mangel an geometrischem Verständnis – typisches menschliches Problem!

4.5 Diskussion des Experiments Problem bei Durchführung von Experimenten an Universitäten: realistische Programmier- erfahrung der Teilnehmer Aber: viele Studenten hatten schon professionell gearbeitet und waren zurück an die Universität gekommen Der erfahrenste Real-Zeit-Programmierer im Experiment machte auch viele Fehler

Weiterer möglicher Einwand wäre: Experiment spiegelt keine realistische Softwareentwicklung aus der Industrie wieder, 1 Mio Testfälle sind nicht viel Operations-Zeit für eine solche Applikation. 1 Mio Testfälle entsprechen allerdings 1 Mio ungewöhnlicher Zwischenfälle auf dem Radarschirm. Dazu kommen noch viel mehr Testfälle für gewöhnliche Radarwerte 1 Mio Testfälle korrespondieren laut Knight&Leveson mit 20 Jahren Operationszeit

4.6 Fazit Für das spezifische Problem, das im Experiment programmiert wurde, hält die für die NVP-Analyse fundamentale Annahme, dass eine Unabhängigkeit von Fehlschlägen gegeben sei, nicht. Mit einer Sicherheit von 99% hält ein Wahrscheinlichkeitsmodell für Unabhängigkeit nicht für das durchgeführte Experiment.

Knight & Leveson betonen, dass diese Aussage von der Applikation abhängt NVP ist weiterhin eine sinnvolle Methode, aber die Verlässlichkeit eines NVP-Systems ist möglicherweise geringer als in der Theorie behauptet  halten weitere Beschäftigung mit möglichen gemeinsamen Defekten in NVP-Systemen für sinnvoll, da dies sicherheitskritische Systeme betrifft!

5 Folgen Knight&Leveson-Experiment schlug große Wellen In den folgenden Jahren wurden Kni&Lev mit Kritik von NVP-Befürwortern überhäuft hauptsächlich von Prof. Algirdas Avizienis von der University of California, Los Angeles (UCLA) und Mitgliedern seiner Arbeitsgruppe

Wegen der andauernden Vorwürfe veröffentlichten Knight&Leveson 1990 ( ein weiteres Paper als Antwort auf die Kritik Auszüge aus der Kritik von Avizienis: „These efforts serve to illustrate the pitfalls of premature preoccupation with numerical results.“ K&L weisen die Kritik zurück und stellen die rethorische Frage, wieso Prof. Avizienis dann den Einsatz von NVP in sicherheitskritischen Applikationen nicht auch zu früh findet

„The use of the term ‘experiment‘ is misleading, since it implies repeatability of the experimental procedure that is taken for granted in science.“ K&L weisen die Kritik zurück, da ihr Experiment komplett wiederholbar ist und auch von anderen Forschern wiederholt wurde (und sogar bestätigt worden ist). In ihrem Paper von 1990 gehen sie der Reihe nach auf alle Kritikpunkte ein und argumentieren schlüssig dagegen

Das Knight&Leveson-Experiment gilt heute als eins der mustergültigen Experimente in der Informatik

Prof. Avizienis, UCLA Fellow of IEEE AIAA Information Systems Award (1997) NASA Exceptional Service Medal (1980) Annual IEEE Computer Society Technical Achievement Award (1985) IFIP Silver Core Award (1986) Forschungsschwerpunkte sind u.a. Fehlertoleranz, Fehlertoleranz in verteilten Systemen und Design-Methodiken für fehlertolerante Systeme.

Nancy Leveson Professorin am MIT für Aeronautics and Astronautics and Engineering studierte am UCLA bis zum Ph.D. Fellow of the ACM ACM Allen Newell Award for research contributions to computer science (1999) elected to the National Academy of Engineering (NAE) AIAA Information Systems Award for "developing the field of software safety and for promoting responsible software and system engineering practices where life and property are at stake.“ (1995)

John C. Knight Professor an der University of Virgina in Computer Science (seit 1992) war 1985/1986 Associate Professor an der University of Virginia Editor in Chief, IEEE Transactions on Software Engieneering, Jan 2002 - present Forschungsschwerpunkt heute u.a. Software Dependability

Quellen [1] J.C. Knight and N.G. Leveson, „An Experimental Evaluation of the Assumption of Independence in Multi-Version Programming“, IEEE Transactions on Software Engineering, Vol. SE-12, No. 1 (January 1986), pp. 96-109. [2] J.C. Knight and N.G. Leveson, „A Reply to the Criticisms of the Knight&Leveson Experiment, Software Engineering Notes, Vol. 15, No. 1 (January 1990), pp. 24-35. [3] Prof. Algadir Avizienis Homepage http://www.cs.ucla.edu/csd/people/faculty_pages/avizienis.html

Quellen [4] Prof. John Knight Homepage http://www.cs.virginia.edu/~jck/ [5] Prof. Nancy Leveson Homepage http://sunnyday.mit.edu/ [6] Verteilte Systeme Vorlesung Prof. H.-P. Löhr http://www.inf.fu-berlin.de/lehre/SS03/alpIV/vorlesung.html