Neuronale Netze und Fuzzy Sets

Slides:



Advertisements
Ähnliche Präsentationen
DAVID HUME : DER EMPIRISCHE KAUSALITÄTSBEGRIFF.
Advertisements

Perceptrons and the perceptron learning rule
Polynomial Root Isolation
Frame-Logik Eine Einführung Andreas Glausch.
Einführung in NeuroFuzzy Technologien
Grundlagen der Neurobiologie
Modellierung und Schätzung von Variogrammen
Marvin Minsky und das Perceptron
Leonid Levin – Stephen Cook Traveling salesman und NP- Vollständigkeit.
Neuronale Netze Von Kay-Patrick Wittbold.
Biographie Talcott Parsons
On a Buzzword: Hierachical Structure David Parnas.
von Reaktionen und chemischen Suppen
Neuronale Netze Inhalt des Vortrags:
Kapitel 5 Stetigkeit.
Kapitel 1 Die natürlichen und die ganze Zahlen. Kapitel 1: Die natürlichen und die ganzen Zahlen © Beutelspacher/Zschiegner April 2005 Seite 2 Inhalt.
Neurobiologische Grundlagen der visuellen Wahrnehmung
Gleichungen: Grundwissen
Was ist ein kognitives System?
Berechnen Sie den Output Vektor wenn der Input Vektor (1,1,-1,-1) ist.
handlungsorientierte Zugänge zur Algebra
Grundkurs praktische Philosophie 13. Dezember 2004 Politische Philosophie: wozu Staaten gut sind Text: A. John Simmons, Philosophical Anarchism, in: J.
Biologisches Vorbild Grundlagen
PowerPoint-Folien zur 8. Vorlesung „Bionik II / Biosensorik“
PowerPoint-Folien zur 6. Vorlesung „Bionik II / Biosensorik“
Neuronale Netze Romy Kuttner, Franco Haberland.
Addierwerke.
2. Biologische Neuronen Schematischer Aufbau einer Nervenzelle
§9 Der affine Raum – Teil 2: Geraden
§9 Der affine Raum – Teil 2: Geraden
Neuronale Netze (Mitchell Kap. 4)
§24 Affine Koordinatensysteme
Arbeit, Energie.
...warum ein allein gelassenes System immer unaufgeräumter wird...
Die wahre Geschichte vom Osterei
Paul A. Samuelson (1970) Geb.: 1915 in Gary/Indiana
Adaptive Systeme-2 Grundlagen
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Effiziente Algorithmen
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Neuronale Netze.
Christian Scheideler Institut für Informatik Universität Paderborn
Neuronale Netze (1) Isabel Schwende
Dr. Rolf Haenni, University of KonstanzNovember 28, 2002 Page 1/15 Aspekte eine echten Informationstheorie 1.Einführung 2.Informationsalgebren 3.Unsicherheit.
Exponentielles Wachstum
Wahrscheinlichkeitsrechnung
Das menschliche Gehirn - eine Einführung in die Neuropsychologie
Modellbildung und Simulation
From Circuit Theory to System Theory. Lotfi Zadeh, 1954: System Theory Fuzzy Set Theorie.
ENDLICHE KÖRPER RSA – VERFAHREN.
Technische Informatik II
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
Scaffold 29S: Komplexe Zahlen
Gödel: Gottesbeweis Dürst Yolanda, Warhanek Maximilian, Rigo Elvira
Vom graphischen Differenzieren
Vom Neuron bis zur Boltzmann Maschine Miguel Domingo & Marco Block Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.
Using Reflexive Behaviors of the Medicinal Leech to Study Information Processing William B. Kristan Jr., Sawn R. Lockery und John E. Lewis.
Beugung an Streuzentren
(Wirtschafts-)mathematik I Mathe im Wandel der Zeit Volksschule 1960: Ein Bauer verkauft einen Sack Kartoffeln für 50 DM. Die Erzeugerkosten betragen 40.
„Fairness“ Auswertung des Jahresthemas 2014 / 2015
Geoinformationssysteme
Programmiersprachen II Fortsetzung Datenstrukturen Balancierte Bäume 1 Prof. Dr. Reiner Güttler Fachbereich GIS HTW.
Univ.-Prof. Dr.-Ing. H. Nacken Vorlesung Wasserwirtschaftliche Modellierung Themen: Vorlesung 8 Neuronale Netze (ANN) Trainingsformen von Neuronalen Netzen.
Organisation Referate Materialien Dritter Termin Workshop 27.Oktober 2010 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 1.
Konnektionismus: Pattern Association Simulationsumgebung tlearn Projektseminar Konnektionistische Sprachverarbeitung WS 2009/2010.
 Präsentation transkript:

Neuronale Netze und Fuzzy Sets

Das Gehirn von Carl Friedrich Gauß (1777-1855)

Robert Fludd (1574-1637)

Robert Fludd (1574-1637)

George Combe (1788-1858)

George Combe (1788-1858) A System of Phrenology, Boston: Marsh Capen 1831.

Nervenzelle (Neuron)

Nervenzelle (Neuron)

Neuronenwachstum

Neuronenwachstum Synaptische Verbindungen bei einem Neugeborenen Synaptische Verbindungen bei einem drei Monate alten Kind Synaptische Verbindungen bei einem zwei Jahre alten Kind

Siegmund Exner (1852 -1934) Entwurf zu einer physiologischen Erklärung der psychischen Erscheinungen, Leipzig und Wien:1894

Makroskopische Gliederung der Großhirnrinde

Neuronentypen - Schematische Darstellung eines Neurons

Santiago Ramón y Cajal (1852 -1934)

Santiago Ramón y Cajal (1852 -1934)

Santiago Ramón y Cajal (1852 -1934)

Natürliche Neuronale Netze Eingänge des Nervensystems: Einige Nervenzellen (z.B. Sinneszellen) können durch Umweltreize erregt werden. Ausgänge des Nervensystems: Einige Ausgänge von Nervenzellen wirken (über Muskelzellen) auf die Umwelt ein. Erregungsbedingung: Eine Nervenzelle geht in den Erregungszustand über, wenn genügend viele ihrer Eingänge mit erregten Nervenzellen verbunden sind. Unabhängigkeit der Nervenzellen: Der Zustand einer Nervenzelle ist allein durch die Verhältnisse an ihren Eingängen bestimmt. Die einzelnen Zellen arbeiten also unabhängig voneinander.

Natürliche Neuronale Netze Aufbau einer Nervenzelle: Eine Nervenzelle besitzt viele Eingänge, nämlich die synaptischen Verbindungen, und einen Ausgang, nämlich das Axon. Zustände einer Nervenzelle: Eine Nervenzelle kann zwei Zustände annehmen: den Ruhezustand und den Erregungszustand. Verbindungen der Nervenzellen untereinander: der Ausgang einer Nervenzelle führt zu den Eingängen anderer Nervenzellen.

Nicolas Rashevsky (1899-1972) begründete 1939 das Bulletin of Mathematical Biophysics (heute: Bulletin of Mathematical Biology, offizielles Journal der Society of Mathematical Biology) Erste Studenten: Alvin Weinberg, Anatol Rapoport. Erstes PhD program in Mathematical Biology, 1947. Arbeitsgebiete:, Neurowissenschaften, Zellbiology Embryologie, Ökologie, Psychologie, Soziologie. Weitere Studenten: George Karreman, Herbert Landahl (Mitbegründer der Society of Mathematical Biology), Robert Rosen, Robert S. Cohen.

Pioniere der mathematischen Biologie bzw. Neurowissenschaften Alston Householder Herbert Landahl

Rashevskys Forschungen in den 1930er Jahren Of all cells, the neurones have most completely lost their property of dividing; we should expect forces of attraction between them. Indeed the existence of such forces has been inferred by a number of neurologists, notably Ariens Kappers and Ramon y Cajal from various observations. Nicolas Rashevsky: Mathematical Biophysics. Nature, April 6, 1935, p. 528-530: 530. Cornelius Ubbo Ariëns Kappers (1877-1946) Santiago Ramón y Cajal (1852 -1934) David P. C. Lloyd (1911 -1985) Charles Sherrington (1857 -1952)

Rashevskys Forschungen in den 1930er Jahren It has been suggested that a formation of new anatomical connexions between neurones may be the cause of conditioned reflexes and learning. Calculation shows that the above forces may account for it. Under certain conditions they will produce an actual new connexion in a very small fraction of a second. This leads us towards a mathematical theory of nervous functions. We find that, under very general conditions, aggregates of cells such as are studied above will possess many properties characteristic of the brain. Nicolas Rashevsky: Mathematical Biophysics. Nature, April 6, 1935, p. 528-530: 530. Ivan Petrowitsch Pawlow (1849-1936)

Rashevsky: Mathematical Biophysics And Psychology,1936 Psychometrika, Vol. 1, No. 1, September 1936, pp. 1-26. e = Erregungssubstanz i = Hemmungssubstanz Erregung: e - i > 0 Hemmung: e - i < 0

Rashevsky: Mathematical Biophysics And Psychology,1936 Psychometrika, Vol. 2, No. 3, September 1937, pp. 199-209. Neuron I: Schwelle h1 Neuron II: Schwelle h2 Erregungsfaktorenen : e1 , e2 Erregungen: E1 , E2 e1 > h1  E1 in Neuron I, e2 > h2  E2 in Neuron II. Wenn e1 - h1 genügend klein, dann ist E1 genügend klein, dann ist e2 < h2, dann wird Neuron II nicht erregt. Wenn e1 - h1 so groß ist, dass E1 und damit e2 so groß sind, dass e2 >h2, dann wird Neuron II erregt mit E2.

Vernetzte Nervenzellen – Vernetzte Nervenzellen – Die Arbeiten von McCulloch und Pitts in den 1940er Jahren

Jack D. Cowan Jerome Y. Lettvin

Warren Sturgis McCulloch (1899-1972) Studium: ab 1917 Mathematik (Haverford College), ab 1918 Philosophie und Psychologie (Offiziersschule in Yale), Magister in Psychologie (Columbia University, New York), dann Medizin (Columbia, New York), 1928: Neurologe am Bellvue Hospital, New York, 1930: Rockland State Hospital für Geisteskranke, New York (Forschung zu Kopfverletzungen und Epilepsie) Labor für Neurophysiologie (Yale) Prof. für Psychiatrie in Illinois, Leiter des Labors für Grundlagen- forschung in der Abteilung für Psychiatrie, (Erforschung von Fragen der Physiologie aus Sicht der Anatomie, Physik und Chemie). 1952: Research Laboratory of Electronics, MIT, Boston, 1972 gestorben. Warren McCulloch was a neuropsychiatrist doing research at the Illinois Neuropsychiatric Institute in Chicago in 1942 when he met Walter Pitts. At the time, McCulloch was interested in formulating a logical calculus to describe the all-or-none activity of neurons, but he had no strong foundation in mathematical logic. What he did have was the biological background necessary for the theory, and what he didn’t have in terms of the math, Walter Pitts more than made up for.

Walter Pitts (1924-196?) geb. in Detroit, Michigan, keine Abschlüsse in High School oder College, kam 1937 nach Chicago, traf dort Russell, Carnap, Rashevsky und McCulloch, 1943: Research Assistant bei Wiener am MIT, um 1951 Nervenzusammenbruch, 1950er Jahre: Pitts zerstörte Zeugnisse seines Vorlebens, „verschwunden“, starb in den 1960er Jahren. Walter Pitts had a strong mathematical background, and had in fact already been working with mathematical models of biological systems when he met Warren McCulloch. McCulloch and Pitts soon learned that, although they were from very different intellectual backgrounds, they had similar intellectual concerns. They were both interested in modelling the behaviour of neurons. Working together, McCulloch and Pitts produced a feasible model of how neurons work to produce meaningful output. Their basic theory is as follows.

Warren McCulloch, Walter Pitts A Logical Calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, Vol. 5, S. 115-133.

Künstliche Neuronen Ein Neuron ist ein entweder aktives oder inaktives binäres Schaltelement. Jedem Neuron ist ein fester Schwellenwert eigen. Neuronen empfangen Eingaben (inputs) von erregenden Synapsen, die ihre Aktivierung mit gleichem Gewicht weitergeben. Neuronen empfangen auch Eingaben (inputs) von hemmenden Synapsen, wodurch ihre Aktivierung gerade verhindert wird. Innerhalb eines kleinen Zeitabschnittes werden die erregenden Eingaben im Neuron addiert; überschreitet diese Summe den Schwellenwert des Neurons, so wird es aktiv.

McCulloch, Leiter der Macy-Treffen der Cybernetic Group“, 1944-1953

McCulloch: Finality and Form American Lecture Series (Springfield I11, Charles C. Thomas, 1952).

„Alles-oder-nichts-Impuls“ Wenn ein Klotz angestoßen wird, fällt er ganz um oder gar nicht. Das ist sein Alles-oder-nichts-Impuls.

Refraktärzeit Es braucht Zeit, ihn wieder aufzustellen. Das ist die Erholungs- oder Refraktärzeit.

Schwelle - latente Summation Damit er fällt, muss er hinreichend stark angestoßen werden. Das ist seine Schwelle. Ein Stoß, der ihn nicht umfallen lässt, bringt ihn nur zum Kippen, von wo er in seine alte Lage zurückkehrt; aber während er noch kippt, kann er durch einen zweiten gleichen Schlag umgeworfen werden. Das ist latente Summation.

Synaptische Verzögerung Nachdem ein Klotz angestoßen wurde, dauert es eine Weile, bis er umfällt. Das ist die synaptische Verzögerung.

Zeitliche Summation Der Impuls und die latente Summation sind so viel kürzer als die Refraktärzeit und die synaptische Verzögerung, dass ein Klotz nie einen anderen umwerfen kann, indem er ihn zweimal anstößt. Das ist das Fehlen der zeitlichen Summation.

Unumkehrbarkeit der Leitungsrichtung Ein Klotz, der zwei andere umstößt, wirft sie möglicherweise nicht um, während die beiden Klötze zusammen den ersten umwerfen können. Das ist die Unumkehrbarkeit der Leitungsrichtung.

Hemmung - Räumliche Summation Ein Klotz, der gegen die Kante eines anderen fällt, kann einen dritten daran hindern, ihn umzuwerfen. Das ist die Hemmung an einer Synapse. Zwei Klötze, die gemeinsam einen dritten anstoßen, können ihn umwerfen, obwohl jeder allein es nicht geschafft hätte. Das ist räumliche Summation.

Irritabilität Nicht zuletzt stammt fast alle zum Umwerfen eines Bausteins nötige Energie aus der Lageenergie, die beim Aufstellen im Baustein gespeichert wurde. Diese Energie braucht nicht von dem Stoß zu kommen, der den Klotz umwirft. Das ist die Erregbarkeit oder Irritabilität.

Signifikante gleichzeitige Funktionen Wenn C fällt, folgt daraus, dass entweder A oder B oder beide eine synaptische Verzögerung zuvor gefallen sind: logisches „oder“ (und/oder). Die logische Relation des Falls von A und/oder B zu einer bestimmten Zeit, etwa t =1, wird ihre Disjunktion genannt. Das Umfallen von C zur Zeit t =2 impliziert nicht das eine oder andere Ereignis, sondern ihre Disjunktion zur Zeit t =1.

Signifikante gleichzeitige Funktionen Wenn G umfallen soll müssen sowohl E als auch F innerhalb der Periode der zeitlichen Summation G angestoßen haben. Wenn G also zur Zeit t =2 fällt, setzt das die Konjunktion des Fallens von E und F zur Zeit t =1 voraus: logisches „und“.

Signifikante gleichzeitige Funktionen H kann J zum Umfallen bringen, wenn nicht I gegen den Rand von J fällt und damit sein Umfallen verhindert. Konjunktion einer Behauptung mit einer Negation. Das Umfallen von J zur Zeit t =2 setzt voraus, dass zur Zeit t =1 zwar H umfiel, aber nicht I.

Gedächtnis Werden Bauklötze nebeneinander im Kreis aufgestellt und fällt einer um, so setzt ich das Umfallen im Kreis fort, bis der letzte Stein auf den ersten fällt. Wenn die Klötze so rasch wieder aufgestellt werden könnten, wie sie umfallen, würde das Fallen immer weitergehen. Das ist eine Art Gedächtnis.

„Wachstum durch Gebrauch“ Wie wird die Aufstellung der Klötze (bzw. das Neuronennetz) durch die Impulse verändert? Regel: Ein Klotz C, der gleichzeitig mit einem Klotz R umfällt, der aber nicht durch C umgestoßen wurde, wird so wieder aufgestellt, dass er beim nächsten Mal R umwerfen kann.

Bikonditionale Funktion: „dann und nur dann“ Wenn die Orte und Stoßrichtungen so festgelegt wurden, dass B beim Umfallen immer C zu Fall bringt, haben wir Implikation in beiden Richtungen. Die Fall von C zur Zeit t = 2 bedingt das Umfallen von B zur Zeit t = 1. Jetzt bedingt aber auch das Umfallen von B zur Zeit t = 1 das Umfallen von C zur Zeit t = 2.

„Reflexe“

McCulloch, Pitts: A Logical Calculus of the Ideas Immanent in Nervous Activity Bulletin of Mathematical Biophysics, Vol. 5, S. 115-133.

Struktur eines typischen künstlichen Neuronalen Netzes Interpretation des neuronalen Netzes als Funktion

Struktur eines typischen künstlichen Neuronalen Netzes Interpretation des neuronalen Netzes als Black Box

Struktur eines typischen künstlichen Neuronalen Netzes Auswertung einer Funktion mit n Argumenten

Struktur eines typischen künstlichen Neuronalen Netzes Generisches Neuron mit Integrationsteil und Ausgabeteil Integrationsteil: g Zusammenfassung der Eingabe Ausgabeteil: f Berechnung der Ausgabe

McCulloch-Pitts-Neuron

McCulloch-Pitts-Neuronen zum Aufbau logischer Funktionen

McCulloch-Pitts-Neuronen zum Aufbau logischer Funktionen

Logische Funktionen

Frank Rosenblatt, 1957: Perzeptron

Frank Rosenblatt, 1957: Perzeptron

Frank Rosenblatt, 1957: Perzeptron

McCulloch-Pitts-Zellen: geometrische Interpretation

McCulloch-Pitts-Zellen: geometrische Interpretation

Perzeptron; geometrische Interpretation

Logische Funktionen

XOR-Problem x1 x2 x1 XOR x2 0 0 0 1 0 1 0 1 1 1 1 0

McCulloch und Pitts: Logik der Neuronen

Donald Olding Hebb (1904-1985) Unser Gedächtnis beruht wahrscheinlich darauf, dass synap-tische Verbindungen zwischen gleichzeitig aktiven Nerven-zellen gestärkt werden. Eine solche Veränderung der synap-tischen Stärke wird als Hebb'sches Lernen bezeichnet.

Donald Olding Hebb (1904-1985) Tatsächlich kann nach wiederholter gleichzeitiger Stimulation eine Zunahme der synaptischen Verbindungsstärke festgestellt werden: Nach dem Hebb‘schen Modell entsteht in Gruppen von Nervenzellen, die untereinander durch positive Rückkopplung verbunden sind, kreisende Erregung. Diese Erregungszustände betrachtete Hebb als Grundlage von psychischen Komponenten wie Ideen und Vorstellungen. Gruppen von Nervenzellen, von Hebb als "Zellgesellschaften" bezeichnet, bilden sich durch Verstärkung von synaptischen Verbindungen zwischen gleichzeitig aktiven Nervenzellen. Hebb hat sein Modell vorgeschlagen, ohne über experimentelle Hinweise darauf zu verfügen. Mittlerweile hat man aber in verschiedenen Regionen des Gehirns Synapsen mit genau diesen Eigenschaften gefunden. Man bezeichnet sie heute als Hebb'sche Synapsen.

Modell-Neuron Body Axon First of all, they modelled the main parts of a neuron. Mainly, a neuron has a cell body or soma, and an axon.

Nerveneigenschaften Secondly, they defined some of the general properties of neurons. To start with, they stipulated that a neuron will fire when it receives a threshold level of stimulation, and otherwise it will not fire. This property of neurons has come to be known as the “all or none” rule.

Nerveneigenschaften Secondly, they stipulated that a neuron can be inhibited so that it takes more stimulation than usual to reach that neurons firing threshold. Given these two properties of neurons, McCulloch and Pitts began to construct logical neuronal operations.

“Wenn A dann B” Logische Operationen Neuron A Neuron B Suppose now that it takes two excitatory synaptic connections to make a neuron fire. In the simplest case, illustrated here, Neuron B will fire if and only if Neuron A fires. This situation is equivalent to the logical statement of “if A then B.” Neuron A Neuron B

Logische Operationen “Wenn A oder B dann C” Neuron A Neuron B Neuron C Now suppose that we slightly change the configuration of the excitatory synaptic connections between the neurons, such that two neurons each make two excitatory synaptic connections with the body of the third neuron. In this example, Neuron C will fire if and only if Neuron A or Neuron B fires. This situation is equivalent to the logical statement of “if A or B then C.” Neuron C

Logische Operationen Neuron A “Wenn A oder B dann C” Neuron C Neuron B Now suppose that instead of each excitatory neuron making two synapses with the body of the third neuron, they each make only one synapse. In this case, Neuron C will fire if and only if both neuron A and neuron B fire at the same time. This situation is equivalent to the logical statement of “if A and B then C.” Neuron B

“Wenn A und nicht B dann C” Logische Operationen Neuron A “Wenn A und nicht B dann C” Neuron C Finally, suppose that one excitatory neuron synapses with Neuron C, but that an inhibitory neuron also synapses with Neuron C. Here Neuron C will fire if and only if Neuron A fires and Neuron B does not fire. This is an example of the logical expression “if A and not B then C.” Neuron B

XOR-Problem  = w1 x1 + w2 x2, woraus folgt: x2 = - (w1 / w2) x1 + ( / w2) Auf der einen Seite der Geraden gilt: w1 x1 + w2 x2 > , d. h. Neuron ist aktiv. Auf der anderen Seite der Geraden: w1 x1 + w2 x2 < , d. h. Neuron ist nicht aktiv.

 > w1 + w2  2, also  >2. XOR-Problem x1 = 0 und x2 = 1: y soll 1 sein. D. h.: w1 0 + w2 1  , d. h. aktiv! x1 = 1 und x2 = 0: y soll 1 sein. D. h.: w1 1 + w2 0  , d. h. aktiv! x1 = 0 und x2 = 0: y soll 0 sein. D. h.: w1 0 + w2 0 < , d. h. inaktiv! x1 = 1 und x2 = 1: y soll 0 sein. D. h.: w1 1 + w2 1 < , d. h. inaktiv! Addieren der beiden ersten Ungleichungen ergibt: w1 + w2  2 , Aus den letzten beiden Ungleichungen folgt:  > w1 + w2  2, also  >2. Das gilt aber nur für  < 0. Dies steht im Widerspruch zu w1 0 + w2 0 < .

in einem 2-dim. Merkmalsraum in einem 3-dim. Merkmalsraum Zwei nicht linear trennbare Muster in einem 2-dim. Merkmalsraum in einem 3-dim. Merkmalsraum

Marvin Minsky und Seymour Papert 1969

>(S)  (S)  ~(S) = . L. A. Zadeh, 1963: Optimality and Non-Scalar-Valued Performance Criteria Eine Teilmenge (constraint set) C von  sei durch Einschränkungen an das System S definiert. Auf  sei eine partielle Ordnung „“ definiert, wodurch jedem System S in  die folgenden drei disjunkten Teilmengen von  zugeordnet werden können: >(S): Teilmenge aller Systeme, die besser als S sind (superior). (S): Teilmenge aller Systeme, die schlechter oder gleich S sind (inferior). ~(S): Teilmenge aller Systeme, die mit S nicht vergleichbar sind. >(S)  (S)  ~(S) = . Definition 1: Ein System S0 ist in C nichtinferior, wenn gilt: C  >(S0) = Ø. (Es gibt somit kein System in C, das besser als S0 ist.) Definition 2: Ein System S0 ist in C optimal, wenn gilt: C  (S0). (Jedes System in C ist somit schlechter (inferior) als S0 oder gleich S0.)

L. A. Zadeh, 1963: Optimality and Non-Scalar-Valued Performance Criteria Ist die Menge  aller betrachteten Systeme durch ein skalares Kriterium vollständig geordnet, dann gilt: ~(S0)=  und >(S0) und (S0) sind komplementäre Mengen. Wenn C >(S0) = , dann gilt sicher: (S0)  C. Nichtinferiorität und Optimalität sind äquivalent; Unterschied der Begriffe ist nicht erkennbar. Vorschlag: Partielle Ordnung von  durch vektorwertiges Leistungskriterium berücksichtigen: System S sei durch x = (x1, ..., xn) charakterisiert, dessen reellwertige Komponenten z. B. die Werte von n veränderlichen Parametern des Systems S sind. C sei Teilmenge des n-dimensionalen Euklidischen Raumes. Die Leistung des Systems S werde durch einen m-dimensionalen-Vektor p(x) = [p1(x), ..., pm(x)] gemessen, wobei pi(x), i = 1, ..., m, reellwertige Funktion von x ist. Es gilt nun S ≥ S´  p(x) ≥ p(x‘). Das heißt also: pi(x) ≥ pi (x‘), i = 1, ..., m.

L. A. Zadeh, 1963: Optimality and Non-Scalar-Valued Performance Criteria

L. A. Zadeh, 1963: Optimality and Non-Scalar-Valued Performance Criteria

Separation Theorem for Fuzzy Sets