: Frank Witte
: Testmanagement und Softwaretest Theoretische Grundlagen und praktische Umsetzung
: Springer Vieweg
: 9783658099640
: 1
: CHF 31.10
:
: Informatik
: German
: 274
: Wasserzeichen/DRM
: PC/MAC/eReader/Tablet
: PDF

Das Buch gibt konkrete Tipps zur erfolgreichen Umsetzung von Softwaretests und effizientem Testmanagement. Dabei verbindet der Autor theoretische Grundlagen mit betrieblicher Realität zur Anwendung in der Praxis. Es werden Hinweise gegeben, welche Herausforderungen beim Test von Software bestehen, wo es Fallstricke gibt und was zu beachten ist, um sie zu vermeiden.



Frank Witte verfügt über langjährige Erfahrung als Berater im Bereich Softwaretest und Testmanagement für unterschiedliche Branchen und Unternehmen.
Vorwort5
Inhaltsverzeichnis9
1 Der Testprozess15
1.1 Die Säulen im Testprozess16
1.2 Phasen im Testprozess17
1.3 Historie des Themas Softwaretest18
1.4 Standardisierung von Testprozessen19
1.5 Die Rolle des Testers im Testprozess19
1.6 Rahmenbedingungen beim Softwaretest21
1.7 Verfahren zur Prozessoptimierung22
2 Grundsätze für Softwaretester24
2.1 Testen zeigt die Anwesenheit von Fehlern24
2.2 Vollständige Tests sind unmöglich24
2.3 Mit dem Testen frühzeitig beginnen25
2.4 Beim Testen flexibel sein25
2.5 Tests müssen geplant werden26
2.6 Testfälle regelmäßig prüfen und reviewen26
2.7 Das Testumfeld berücksichtigen27
2.8 Unterschiedliche Personen als Tester und Programmierer27
2.9 Dokumentation und Nachvollziehbarkeit der Tests27
2.10 Operation gelungen, Patient tot?28
2.11 Ermittlung der Fehlerrate28
2.12 Testnutzen30
2.13 Testphilosophien31
3 Testnormen33
3.1 IEEE 829 Standard for Software Test Documentation34
3.2 ISO-Standard 912634
3.3 ISO-Standard IEC-2911937
4 Rollen und Verantwortlichkeiten im Testmanagement39
4.1 Testmanager39
4.2 Testkoordinatoren40
4.3 Testdesigner42
4.4 Testautomatisierer42
4.5 Testsystemadministrator43
4.6 Tester (Testdurchführer)43
4.7 Qualifikation für Testverantwortliche44
5 Grundlagen des Testmanagements45
5.1 Integration der Testprozesse in den Life Cycle der Softwareentwicklung46
5.2 Integrierte Toolunterstützung im gesamten Testprozess46
5.3 Einheitliche Testumgebungen und Testdaten47
5.4 Softwaretest als Management-Aufgabe47
5.5 Industrialisierung und Standardisierung der Testprozesse47
6 Marktsituation beim Softwaretest48
7 Testvorbereitung51
7.1 Teststrategie51
7.2 Kennzahlen zur Wahl der geeigneten Teststrategie54
7.3 Häufigkeit der Änderungen und Anzahl der Releasezyklen56
7.4 Änderungsumfang pro Release56
7.5 Testziele57
7.6 Anforderungen an das Konfigurationsmanagement59
7.7 Testendekriterien60
7.8 Testorganisation61
8 Requirements Engineering63
8.1 Grundsätze des Anforderungsmanagements63
8.2 Kriterien für die Formulierung von Requirements65
8.3 Requirements Engineering in agilen Projekten67
8.4 Beispiele zur Formulierung von Requirements69
8.5 Nachträgliche Erstellung von Requirements70
8.6 Probleme beim Requirements Engineering71
8.7 Review der Requirements73
8.8 Nebenabsprachen und Schattenprozesse74
8.9 Verzögerungen beim Requirements Management74
9 Teststufen76
9.1 Modultest76
9.2 Integrationstest77
9.3 Systemtest80
9.4 Abnahmetest82
9.5 Mischformen und Abgrenzung der einzelnen Teststufen83
9.6 Teststufen im V-Modell83
9.7 Blackbox- und Whitebox-Verfahren85
9.8 Mehrere Teststufen statt „Big Bang“88
10 Testabdeckung und Überdeckungsmaße90
11 Fehlermanagement94
11.1 Definition von Fehlern95
11.2 Fehlerarten95
11.3 Kosten pro Fehler – die Barry-Boehm-Kurve96
11.4 Dynamik der Fehlerkosten98
11.5 Konsequenzen für die Fehlerbehandlung in den Teststufen102
11.6 Fehlerverfolgung103
11.7 Aufbau einer Fehlermeldung104
11.8 Tools für die Fehlerverwaltung105
11.9 Auswirkungen von Fehlern110
11.10 Schätzungen für die Fehlerdichte112
11.11 Programmierfehler – Beispiele113
12 Testplanung120
12.1 Erarbeitung der Teststrategie und der Testmaßnahmen120
12.2 Gemeinsames Verständnis über Testvorgehen und Testziele121
12.3 Tests nach Auslieferung des Produkts122
12.4 Testdaten122
12.5 Das Testprojekt im Entwicklungszyklus124
12.6 Zeitliche Planung der Testaktivitäten125
13 Testumgebung127
14 Testkonzeption131
14.1 Grundlagen131
14.2 Aufbau des Testkonzepts133
14.3 Testkonzept nach IEEE 829136
14.4 Testarten, Testinhalte und Testphasen139
14.5 Testkonzept und betriebliche Realität140
15 Kennzahlen zur Bewertung von Tests143
15.1 Testprozessreife144
15.2 Ermittlung der Testproduktivität145
15.3 Kennzahlen für die Testeffektivität148
15.4 Die COCOMO-II-Gleichung148
15.5 Berechnung der Testdauer und des Testaufwands150
15.6 Planungsrisiken bei der Aufwandsermittlung151
15.7 Risikozuschläge in Testprojekten153
15.8 Vom Entwicklungsaufwand zum Testaufwand154
15.9 Vom Gesamtaufwand zur Detailbetrachtung154
15.10 Berücksichtigung vorhandener Ressourcen155
15.11 Genügend Fehlerpuffer miteinbeziehen155
15.12 Erfahrungen aus früheren Projekten nutzen156
16 Testvoraussetzungen157
17 Beschreibung der Testfälle159
17.1 Struktur der Testbeschreibung159
17.2 Testspezifikation und Testimplementierung160
17.3 Beschreibung der Geschäftsprozesse161
17.4 Aufbau des einzelnen Testfalls161
17.5 Strukturierung der Testfälle163
17.6 Anzahl Testfälle164
17.7 Abhängigkeiten zwischen Testfällen165
17.8 Priorisierung von Testfällen166
17.9 Funktionale und nichtfunktionale Testfälle166
18 Testmethoden173
18.1 Äquivalenzklassenbildung173
18.2 Unterschiedliche Testtiefen177
18.3 Überdeckungsmaße178
18.4 Test Maturity Model185
18.5 Test Process Improvement (TPI)185
19 Testdurchführung186
19.1 Änderungen der Testfallbeschreibung während der Testdurchführung187
19.2 Strukturiertes Testen und exploratives Testen187
19.3 Intuitive Testfallermittlung189
19.4 Durchführung explorativer Tests190
20 Der Testbericht191
20.1 Kriterien für Testberichte191
20.2 Beschreibung der Rahmenbedingungen192
20.3 Bericht der Testergebnisse193
21 Produ