Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Qualitätssicherung von Software (SWQS)

Ähnliche Präsentationen


Präsentation zum Thema: "Qualitätssicherung von Software (SWQS)"—  Präsentation transkript:

1 Qualitätssicherung von Software (SWQS)
Prof. Dr. Holger Schlingloff Humboldt-Universität zu Berlin und Fraunhofer FOKUS : Integrationstests

2 Fragen zur Wiederholung
Welche Überdeckungskriterien kennen Sie? Warum ist Überdeckungsmessung wichtig? Welche Problematik gibt es dabei? Was versteht man unter MC/DC? Wie konstruiert man eine vollständige Testsuite?

3 Wo stehen wir? Kapitel 2. Softwaretest
Kapitel 1: Einleitung, Begriffe, Software-Qualitätskriterien Kapitel 2. Softwaretest 2.1 Testen im SW-Lebenszyklus 2.2 Funktionale Tests, Modultests, Testfallauswahl 2.3 Strukturelle Tests, Integrationstests 2.4 Modellbasierte Tests

4 Wdh.: Datenflussorientierter Test
Variablen und Parameter Lebenszyklus: erzeugen – (schreiben – lesen*)* – vernichten computational use versus predicate use Zuordnung von Datenflussattributen zu den Knotens des Kontrollflussgraphen Berechnung der Variablenzugriffe für jeden Definitionsknoten n für Variable x die Mengen dcu(x,n) und dpu(x,n) aller Knoten, in der x (berechnend oder prädikativ) verwendet wird Literatur: S. Rapps, Selecting Software Test Data Using Data Flow Information IEEE Transactions on Software Engineering, April 1985

5 attributierter Kontrollflussgraph
start n1 n2 n4 n5 n6 ende n3 def(VokalAnzahl) def(Gesamtzahl) void ZaehleZchn (int& VokalAnzahl, int& Gesamtzahl){ char Zchn; cin>>Zchn; while ((Zchn>=`A´) && (Zchn<=`Z´) && (Gesamtzahl<INT_MAX)){ Gesamtzahl+=1; if ((Zchn==`A´)|| (Zchn==`E´) || (Zchn==`I´) || (Zchn==`O´) || (Zchn==`U´)){ VokalAnzahl +=1; } cin>>Zchn } } def(Zchn) p-use(Zchn), p-use(Gesamtzahl) c-use(Gesamtzahl) def(Gesamtzahl) p-use(Zchn) c-use(VokalAzahl) def(VokalAnzahl) def(Zchn) c-use(VokalAzahl) c-use(Gesamtzahl)

6 Defs/Uses-Kriterien zur Testabdeckung
Testfallerzeugung berechne Pfade zwischen Definition und Verwendung ungenutzte Definitionen markieren Fehler Kriterien all defs: Jeder Pfad von einer Definition zu mindestens einer Verwendung enthalten all p-uses: Jeder Pfad von einer Definition zu irgendeiner prädikativen Verwendung subsumiert Zweigüberdeckung all c-uses: analog, zu computational use all c-uses/some p-uses: jede berechnende oder mindestens eine prädikative Verwendung all uses: jede Verwendung du-paths: Einschränkung auf wiederholungsfreie Pfade

7 Pause! Endbenutzer-Abnahmetest

8 Integrations- und Systemtest
Requirements Analysis Document Subsystem Code Unit Requirements Analysis Document System Design Document T est Tested Subsystem Subsystem Code Unit T est Tested Subsystem Integrations Systemtest test Integrated Subsystems Deliverable System Tested Subsystem Subsystem Code Unit Abnahme User Manual T est Test

9 Integrationstest Ziel: Systematische Erprobung des korrekten Zusammenspiels von Modulen „Modultest auf höherer Abstraktionsebene“ White-Box auf Modulebene Komponenten und Verbindungen sind sichtbar Vorbedingung: die elementaren Module sind gut getestet; man kann annehmen, dass sie weitgehend fehlerfrei sind (neu auftretende Fehler sind auf Inkompatibilitäten zwischen den Modulschnittstellen zurückzuführen) Methode: Platzhalter und Treiber

10 Platzhalter (stubs, Stümpfe)
Ein Platzhalter (stub) ist ein Pseudo-Modul, der die Funktionalität einer noch nicht geschriebenen oder integrierten Komponente (partiell) emuliert Implementierungsmöglichkeiten z.B. Rückgabe eines konstanten Wertes statt eines berechneten Funktionswertes z.B. Anzeigen der Eingabewerte und Zurückgeben von vom Benutzer eingegebener Werte z.B. Erzeugung von schnellen Prototypen oder schlecht synthetisierten Funktionen, die mit wenig Aufwand erstellt werden kann („Wegwerfsoftware“)

11 Treiber und Orakel Ein Treiber ist ein Modul welches ein zu testendes Modul (IUT, Implementation under Test) aufruft und mit Eingabedaten versorgt Orakelproblem: Entscheidung ob die von der IUT zurück gelieferten Werte korrekt sind lösbar: automatische Testauswertung im Treiber unlösbar: manuelle Bewertung der Tests Beispiele für lösbare bzw. unlösbare Orakelprobleme Treiber zum Test einer Additionsfunktion sende „i“, prüfe ob Turingmaschine „i“ terminiert wird ein Programmtext korrekt übersetzt? Erfolgt die Berechnung innerhalb einer Millisekunde?

12 Beispiel Treiber Modul unter Test Stub
void TestIt () { NextDate(i,j,k)) ...} Treiber Modul unter Test NextDate (int *t,m,j) { x=tim(m) ...} int tim (int m) {return 31} Stub

13 Ergebnisse Integrationstest
Was kann bei der Integration schiefgehen? undokumentierte Seiteneffekte Eigenschaften des Betriebssystems, Speicherlecks Parallelität, Verklemmungen Kommunikationsverzögerungen Oft wird für die Integration zusätzliche „glueware“ benötigt, die nicht im Modultest getestet wurde

14 Durchführung (1) Möglichkeiten: Big-Bang, Top-down, Bottom-Up, Sandwich Big-Bang Alle individuellen Komponenten werden an einem Tag zusammengesetzt und getestet Klingt verwegen, ist aber manchmal nicht anders machbar (z.B. wegen Verfügbarkeit spezieller Ressourcen, organisatorische Trennung zwischen Testphasen nicht möglich o.ä.) Top-Down Platzhalter (Stubs) für alle Komponenten vorbereitet Übergeordnetes Modul wird mit Platzhaltern getestet diese werden einer nach dem anderen durch untergeordnete Module ersetzt breadth-first oder depth-first während die Module integriert werden, müssen einige Tests erneut durchgeführt werden (Regressionstest)

15 Durchführung (2) Bottom-Up
Treiber für alle Komponenten vorbereitet Basismodule werden in sogenannte „Builds“ gruppiert und integriert idealerweise wertet der Treiber die Ergebnisse der Testläufe aus Treiber werden nach und nach ersetzt, Funktionsumfang wächst ständig Inkrementell (Sandwichmethode, 3-Schichten-Methode) Zusammenwachsen des Systems von oben und unten Stümpfe für übergeordnete Module, Treiber für Basismodule Platzhalter bzw. Treiber werden bedarfsgerecht (in Abhängigkeit der Testphase) ersetzt Modul A Modul F Modul C Modul D Modul B Modul E

16 Vor- und Nachteile (1) Big-bang inkrementell
keinerlei Zusatzaufwand für Treiber/Platzhalter unsystematische Methode, Test problematisch Fehlerlokalisation evtl. schwierig inkrementell Integration bei Fertigstellung der Komponente möglich Testfälle können vergleichsweise einfach konstruiert werden, Testüberdeckung kann gewährleistet werden Gegebenenfalls viele Testtreiber/Platzhalter nötig

17 Vor- und Nachteile (2) Top-down Bottom-up
frühe Verfügbarkeit des Systems aus Benutzersicht („Prototyp“) Verzahnung von Entwurf und Implementierung schwierige Implementierung der Platzhalter mit zunehmender Integrationstiefe Schwierigkeiten bei der Konstruktion von Testfällen für tiefer liegende Komponenten Zusammenspiel der Systemsoftware, Hardware und Anwendungsebene wird erst sehr spät getestet Bottom-up keine Platzhalter nötig Testbedingungen leicht herstellbar Testergebnisse einfach zu interpretieren Fehleingaben zur Prüfung der Ausnahmebehandlung lauffähiges Gesamtsystem erst sehr spät verfügbar und getestet Fehler in der Produktdefinition werden spät erkannt, können zu umfangreichen Änderungen führen

18 Beispiel: Währungsrechner
Funktionalität: Währungsumrechner, textuelle Eingabe, benutzbar auch als Webservice (a) Entwerfen sie eine Systemdekomposition (b) Entwerfen Sie ein Konzept für die Integrationstests jetzt!

19 System- und Abnahmetest
abschließender Test bei der Produkt(neu)- entwicklung Kundensicht statt Entwicklersicht mit oder ohne Auftraggeberbeteiligung möglichst in kontrollierter Testumgebung Basis: Produktdefinition (Pflichtenheft, Spezifikation etc.) und Produkt (Software, Handbücher etc.) Ziele Vollständigkeit Leistung bzw. Effizienz Zuverlässigkeit und Robustheit Sicherheit (Security) Benutzbarkeit, Dokumentation

20 Systemtest: Vollständigkeit
Überprüfung aller in der Spezifikation geforderten Systemeigenschaften Black-Box-Sicht auf das SUT Testdokumentation nach standardisierter Beschreibung Installation, Interoperabilität, Inbetriebnahme?

21 Systemtest: Leistung Massen- bzw. Zeittest: Wieviele Daten können wie schnell verarbeitet werden Massentestdatengenerierung durch automatische Skripte, Testdatengenerator Importschnittstelle praxisgerechtes Datenprofil? reale Daten vom Auftraggeber? Realzeitverhalten Spezifikation mit festen Daten? Tester muss schneller als Testling sein Kommunikations-Verzögerungszeiten?

22 Systemtest: Zuverlässigkeit
Lasttest: Test des Systems an den (geforderten) Grenzen der Leistungsfähigkeit Beispiel: Mehrbenutzerbetrieb mit maximaler Benutzeranzahl, alle Benutzer verlangen gleichzeitig hohe Systemleistung Stresstest: temporäres Überschreiten der Grenzen Wie verhält sich das System bei Überlast? Normalisiert sich das System anschließend wieder? Robustheitstest: Test des Systemverhaltens bei Ausfall einzelner Teile oder unter anormalen Umgebungsbedingungen (Fehlertoleranz!) z.B. Nichtverfügbarkeit von Systemressourcen, Ausfall von externen Softwareteilen, fehlerhafte Schnittstellenbenutzung nichtzerstörende Methoden erwünscht!

23 Systemtest: Sicherheit
Überprüfung der spezifizierten (!) Sicherheitsmaßnahmen z.B. Zugriffsrechtsverletzungen auf Systemdaten z.B. Abgleich von Passwörtern mit Lexika „systematische“ Einbruchsversuche schwierig mindestens: Überprüfung bekannter Sicherheitslöcher

24 Systemtest: Benutzbarkeit
Benutzerakzeptanz entscheidend! Evaluation von Oberflächen schwierig! meist nicht durch systematische Test, sondern Ausprobieren Benutzung durch ausgewählte nichtvorgebildete Benutzer Inspektion der Handbücher und Hilfe bzgl. Verständlichkeit Systematische Möglichkeiten Aufzeichnung von Benutzerinteraktionen (wann wurde welcher Knopf geklickt) Aufzeichnung von Mausspuren (Wegeminimierung) Videoüberwachung in der Initialphase (wann musste das Handbuch konsultiert werden) Beispiel: Otto-Versand

25 Abnahmetest immer mit Auftraggeberbeteiligung Unterteilung
normalerweise in realer Einsatzumgebung ggf. mit echten Daten, normale Betriebsbedingungen Unterteilung Abnahmekriterien aus der Produktdefinition, Beispiele aus dem Benutzerhandbuch Testfälle aus dem Systemtest Test des typischen Verhaltens über einen gewissen Zeitraum unsystematisches Ausprobieren (protokolliert) juristische Relevanz! (Unterschriften)

26 Vorgehensweise Abnahmetest
Neuerzeugen bzw. Installieren des SUT danach Ausführen der Tests Gewichtung der aufgetretenen Probleme Abnahmebescheinigung Nachbesserungsforderungen Rückgabe bzw. Minderung Feldtests (durch die künftigen Anwender) alpha-Test: beim Hersteller beta-Test: beim Kunden bzw. Anwender Protokollierung der Fehler! Problematik Public-domain-Feldtests


Herunterladen ppt "Qualitätssicherung von Software (SWQS)"

Ähnliche Präsentationen


Google-Anzeigen