Java User Group Stuttgart eV Java User Group Stuttgart eV Java User Group Stuttgart eV Java User Group Stuttgart eV
JUGS RSS-FeedJUGS XING GruppeJUGS @ twitterJUGS bei Google+JUGS bei MeetupiJUG MemberJava User Group Stuttgart eVMember of java.net Java User Group Stuttgart e.V.
Java User Group Stuttgart eV Java User Group Stuttgart eV Java User Group Stuttgart eV Java User Group Stuttgart e.V.
Java User Group Stuttgart eV Java User Group Stuttgart eV
Home
Profil
Mitgliedschaft
Info-Abonnement
Veranstaltungen und Vortragsfolien
Sponsoren und Partner
jugs.board
Dokumente
Kontakt
 
Java Forum Stuttgart
JUGS Special Interest Groups
 
Impressum
Java User Group Stuttgart eV

Stuttgarter Test-Tage am 4. & 5. Mai 2011

veranstaltet von der Java User Group Stuttgart e.V.

» Evaluation durch die Teilnehmer
» Oli's Blog: #sttt2011 reviewed

Übersicht  |   Programm  |   Abstracts  |   Kosten/Leistungen  |   Anmeldung  |   Termine

Veranstaltungsort, Kontakt & Sonstiges

Abstracts

 

 

Ganzheitlich integriertes Anforderungs- und Testmanagement

Ralf Wilhelm, MID GmbH

» Vortragsfolien

4. Mai 2011
09:30 - 10:15 Uhr

Im Vortrag wird nach einer kurzen Betrachtung von Risiken bei der Softwareentwicklung sowie deren Folgen der Ansatz eines ganzheitlich integrierten Anforderungs- und Testmanagements vorgestellt.

Der ganzheitliche Ansatz berücksichtigt hierbei nicht nur die erstellte Software und durch Anwender / Testmanager davon unabhängig erstellte Testfälle, wie es in herkömmlichen Softwareprojekten die Regel ist, sondern beginnt mit der Anforderungsanalyse und der systematischen Erstellung von Testmodellen in Abhängigkeit von den zugrunde liegenden Geschäftsprozessen. Da hier strukturierte Testmodelle im Mittelpunkt stehen, spricht man auch von modellzentriertem Testen.

Im weiteren Verlauf wird beschrieben, wie aus den Testmodellen automatisiert Testfälle generiert werden. Die generierten Testfälle werden abschließend mittels unterschiedlicher Methoden gefiltert und an existierende Testwerkzeuge übergeben. Dort erfolgen das abschließende Feintuning sowie Aufzeichnungen konkreter wiederholbarer und automatisierbarer Testabläufe. Die verwendeten Testwerkzeuge sind hierbei auf vorhandene IT-Systeme spezialisiert, z.B. HP Quality Center im SAP- Umfeld.

Zum Abschluss werden die Vorteile dieses Ansatzes zusammengefasst.

Die Umsetzung des ganzheitlich integrierten Anforderungs- und Testmanagements erfolgt mit dem Modellierungswerkzeug der MID GmbH "Innovator" in Kombination mit dem Produkt ".getmore" der Firma sepp.med. .getmore dient hierbei der Filterung der aus den Modellen und den in den Modellen gepflegten Testinformationen generierten Testfällen sowie der Übergabe an Testwerkzeuge.

Übungen

In der Übung zum Vortrag nutzen die Teilnehmer für eine konkrete Fragestellung das Modellierungswerkzeug Innovator der MID GmbH sowie das Produkt .getmore der Firma sepp.med zur kompletten Umsetzung des im Vortrag präsentierten ganzheitlichen Ansatzes.

Hierzu werden im ersten Schritt die Produkte Innovator und .getmore installiert. Es folgt eine kurze Einführung, so dass die Teilnehmer die Übung praktisch durchführen können.

Nach Bekanntgabe der Aufgabenstellung modellieren die Teilnehmer die Anforderungen, die Geschäftsprozesse und leitet daraus die Testmodelle ab. Sie erfahren welche testspezifischen Informationen auf welche Weise hinterlegt werden können und führen dies in der Praxis aus.

Nach Übertragung und Kennenlernen der unterschiedlichen Filtermethoden generieren die Teilnehmer die durchzuführenden Testfälle, entsprechend der vorhandenen Werkzeuge auf den Notebooks der Teilnehmer (z.B. MS-Excel).

Ralf Wilhelm Über den Referenten

Ralf Wilhelm ist seit seinem Informatik Studium an der Universität Kaiserslautern seit über 16 Jahren in dem Bereich Geschäftsprozessmanagement tätig. Neben anspruchsvollen SAP-Projekten im Konzernumfeld führte er als verantwortlicher Prozessmanager das Thema Geschäftsprozessmanagement in mehreren Unternehmen ein und leitete spannende Anwendungsentwicklungsprojekte.

Seit 2010 ist er bei der MID als Senior Consultant in Kundenprojekten tätig und als Ansprechpartner der DSAG (Deutsche SAP Anwendergemeinschaft) mitverantwortlich für die Weiterentwicklung der Themen rund um SAP sowie dem Thema Anforderungs- und Testmanagement.

 

 

Modellbasierter Test mit dem Open Source Werkzeug FitNesse

Tilo Sauer, GEBIT Solutions GmbH

» Vortragsfolien

4. Mai 2011
10:15 - 11:00 Uhr

FitNesse ist ein Open Source Werkzeug, und wird auf den Webseiten unter http://fitnesse.org als "Collaboration Tool", "Testing Tool", "Wiki" und "Web Server" bezeichnet.

GEBIT als projektorientiertes Beratungsunternehmen setzt FitNesse seit 2004 in Projekten unterschiedlicher Größe für automatisierte Funktions-, Regressions- und Integrationstests ein.

Zu diesem Zweck wurde FitNesse mittels eines selbstgeschriebenen universellen Adapters in die komplett modellgetriebene Werkzeugkette TREND integriert. Die dadurch definierbaren Tests sind deutlich robuster, als herkömmliche GUI-basierte Testskripte.

Dieser Vortrag stellt den technischen Rahmen, Vor- und Nachteile sowie Erfahrungswerte aus knapp 7 Jahren Erfahrung mit FitNesse anhand des praktischen Einsatzes sowie Mehrwerte für den Projekt-Auftraggeber in den Vordergrund.

Übungen

"Modellbasierter Test mit dem Open Source Werkzeug FitNesse und TREND"

In dieser Übung erhalten die Teilnehmer die Möglichkeit, in einer integrierten Umgebung innerhalb des Werkzeugs Eclipse modellbasierte Tests zu erstellen und zu ändern.

Ausgangsbasis wird eine überschaubare kleine Anwendung sein, für die bereits einige kleine Tests erstellt wurden.

  • Im ersten Schritt wird in die Entwicklungsumgebung und das modellbasierte Werkzeug TREND eingeführt
  • Im zweiten Schritt wird das Verständnis für die existierenden Testfälle geschaffen, und diese nachvollzogen.
  • Im dritten Schritt können diese Tests verändert werden.
  • Im vierten Schritt wird ein (oder mehrere) neue Tests modellbasiert erstellt und die Ablauffähigkeit geprüft.
  • Für sehr schnelle oder sehr interessierte Teilnehmer besteht im Anschluss die Möglichkeit, einen kompletten Entwicklungszyklus (bestehend aus Modellerweiterung, modellbasierter GUI-Erstellung und modellbasiertem Test) zu erleben.

Erfahrene GEBIT-Mitarbeiter werden die Übung mit Rat und Tat begleiten.

Tilo Sauer Über den Referenten

Tilo Sauer ist Diplom-Informatiker, und ist verantwortlich für die Stuttgarter Niederlassung der GEBIT Solutions GmbH. Er sammelt seit 1995 in unterschiedlichsten Rollen Erfahrungen mit Java und Enterprise Technologien. Sein Ziel ist der Einsatz moderner und bewährter Technologien zur Schaffung von Lösungen und Mehrwerten für Unternehmen. Die GEBIT Solutions GmbH benutzt seit mehr als 10 Jahren einen ständig optimierten, durchgängig modellbasierten und werkzeugunterstützten Entwicklungsprozess. Dadurch wird ermöglicht schnell, effizient und kostengünstig wartbare Lösungen in Java EE und WebTechnologien zu entwickeln.

 

 

Vorstellung des Jubula Projekts

Hans-Joachim Brede und Alexandra Imrie, BREDEX GmbH

» Vortragsfolien

4. Mai 2011
11:30 - 12:15 Uhr

Im März werden Kernteile von dem GUIdancer Testwerkzeug als Open Source Project namens Jubula veröffentlicht. Mit Jubula können Tester automatisierte Funktionstests spezifizieren und ausführen sowie darin aufgetretene Fehler analysieren. Der Fokus des Tools liegt bei der Erstellung von Black-Box Tests, die frühzeitig und kontinuierlich laufen können, um die Kundensicht immer in Vordergrund zu halten und eine hohe Akzeptanz zu gewährleisten.

In diesem Vortrag werden die Konzepte hinter Jubula erklärt. Wir erzählen, wie Akzeptanztests komplett aus der Benutzerperspektive (sprich: ohne Programmieraufwand) automatisiert werden und erläutern wie diese Tests den Best Practices aus der Softwareentwicklung (Lesbarkeit, Wartbarkeit, Modularität) gerecht werden. Auch die agile Perspektive wird betrachtet: Testfallerstellung vor der Verfügbarkeit einer lauffähigen Software.

Übungen

Jubula im Entwicklungsprozess: Eine Sprint-Simulation

Wer die Konzepte von Jubula interessant gefunden hat kann bei dieser Übung gleich an einem Beispiel mit dem Tool arbeiten.

In der Übung werden Akzeptanztests im Kontext des agilen Entwicklungsprozesses betrachtet. Die Übung beginnt mit einer Vorstellung und Besprechung von bereitgestellten Anforderungen für eine Software. Die Anforderungen enthalten ebenfalls Akzeptanzkriterien, die mit automatischen Funktionstests abgeprüft werden sollen.

Anhand der Akzeptanzkriterien werden automatische Tests entworfen, automatisiert und ausgeführt mit Jubula. Die Aufgaben werden interaktiv gelöst - alle notwendige Software zum Mitmachen wird im Voraus zur Verfügung gestellt.

Neben der Testerstellung werden verschiedene weitere Aspekte besprochen, die zum Erfolg der Testautomatisierung beisteuern. Wir betrachten u.a Continuous Build, Testumgebung, Fehlerbehandlung im Team und im Test, Testwartung und Kommunikation.

Nach der Übung werden Teilnehmer sowohl einen Test automatisiert als auch einen Blick in die tieferen Bereiche der funktionalen Testautomatisierung gewonnen haben.

Über die Referenten

Hans-Joachim Brede und Alexandra Imrie, BREDEX GmbH

Hans-Joachim (Achim) Brede ist Gründer der BREDEX GmbH und einer der Geschäftsführer der Firma. Er hat zahlreiche Kundenprojekte konzipiert und realisiert und ist verantwortlich für das Testwerkzeug Jubula/GUIdancer.

Achim ist Diplominformatiker und hat vor seiner Zeit bei BREDEX als wissenschaftlicher Mitarbeiter am Institut für Informatik an der TU Braunschweig und als Berater für Digital Equipment gearbeitet.

Nach ihrem Studium der Sprachwissenschaft ist Alexandra Imrie seit 2005 bei der BREDEX GmbH in Braunschweig beschäftigt. In ihrer Rolle als Trainerin und Beraterin hilft sie Kunden bei der Entwicklung von Testprozessen und automatisierten Tests. Sie ist auch Teil des Eclipse-Jubula-Entwicklungsteams bei BREDEX, wo sie die Kunden- und Benutzerperspektive vertritt. Alex wirkt bei der Erstellung von User-Stories mit, bringt Rückmeldungen von außen und unterstützt beim Testen der entstehenden Software. Besonders interessiert sich Alex neben Benutzerfreundlichkeit und Ergonomie auch für Agilität in Test- und Entwicklungsprozessen. Sie spricht häufig auf Konferenzen über Agilität und Qualitätssicherung aus Sicht ihrer Projekterfahrung.

 

 

Application Performance

Stefan Siegl, NovaTec GmbH

» Vortragsfolien

4. Mai 2011
12:15 - 13:00 Uhr

Einleitend werden wir das Thema Application Performance und dessen Wichtigkeit beleuchten. Hierzu können wir auf diverse, aktuelle Projekte eingehen. Um die Praxisnähe zu vermitteln werden wir danach anhand einer Beispielsapplikation, die gespickt mit verschiedenen Performanceproblemen ist, mit dem Analysewerkzeug inspectIT durchleuchten. Hierbei erklären wir wie Performanceprobleme in Projekten erkannt und addressiert werden können.

Übungen

Als Übung können die Teilnehmer das Werkzeug inspectIT selbst anwenden um weitere Performanceschwachstellen in der Beispielapplikation zu finden. Je nach Geschwindigkeit der Teilnehmer können in diesem Zeitraum ein oder mehrere Probleme in der Anwendung gefunden werden.

Stefan Siegl Über den Referenten

Stefan Siegl ist seit 2004 bei der NovaTec GmbH tätig, aktuell als Managing Consultant. Seine Beratungsschwerpunkte liegen im Bereich Application Performance Management (APM) und Softwarearchitekturen.
Seit Anfang 2007 leitet er die Competence Area "Application Performance Management". Dieser Geschäftsbereich der NovaTec beschäftigt sich mit Ansätzen die Performance von Anwendungen zu messen und zu optimieren. Zudem ist Stefan Siegl Produktverantwortlicher des freien Application Performance Diagnose und Monitoring Werkzeugs inspectIT (www.inspectit.eu). Stefan Siegl ist Referent auf diversen Konferenzen und Verfasser von Fachartikeln zum Bereich APM.

 

 

Systemtest nonstop

Untertitel: Entwicklernahe Systemtests durch Continuous Integration - ein Praxisbericht

Joachim Hofer und Sven Reul, imbus AG

» Vortragsfolien

5. Mai 2011
09:15 - 10:00 Uhr

Entwicklungsprojekte sind heutzutage häufig "test-driven", so dass die Entwickler aus den Modultests direktes Feedback erhalten. Dabei bleibt der Systemtest leider meist "außen vor"; er wird nachgelagert von einer gesonderten QS-Abteilung durchgeführt. Dadurch entstehen sehr lange Feedback-Zyklen zurück zur Entwicklung, die Fehler werden zu spät erkannt und zu spät behoben.

Warum also nicht den Systemtest ebenfalls in die Continuous Integration aufnehmen?

Am konkreten Projektbeispiel wird in diesem Vortrag vorgestellt, wie das im Zusammenspiel mit Hudson/Jenkins gehen kann, welche Hürden überwunden werden müssen, und welche Vorteile man gewinnt.

Übungen

Für die Übung steht ein Spielsystem zur Verfügung, das aus einem kleinen Softwareprojekt und dazugehörigen Systemtests besteht.

Auf dieser Basis können die Teilnehmer Schritt für Schritt ausprobieren,

  • wie man in Jenkins das Projekt passend einrichtet,
  • wie man die Tests einbindet und
  • wie man die Testergebnisse einsammelt und darstellt.

Speziell wird am Beispiel auch aufgezeigt, auf welche typischen Stolpersteine man hierbei stößt und wie man sie aus dem Weg räumt.

Über die Referenten

Joachim Hofer Joachim Hofer studierte Informatik an der Friedrich-Alexander-Universität Erlangen-Nürnberg. Bei der imbus AG stieg er 1998 als Werkstudent ein und blieb dort auch nach seinem Studienabschluss. Seither hat er in der Firma den Aufbau von Know-how im Java-Umfeld vorangetrieben und arbeitet derzeit als Leiter des hausinternen Entwicklungsteams in einem J2EE- Projekt. In seiner Freizeit entwickelt er an Open-Source-Projekten in den Bereichen Scala, SBT und Code Coverage mit.
Sven Reul Sven Reul arbeitet seit 2005 ebenfalls bei imbus als Softwareentwickler im J2EE-Umfeld. Durch den technischen Hintergrund, den er sich neben seinem Physik-Studium angeeignet hat, konnte er die Einführung des Continuous Integration Systems sowie die Anbindung der Systemtests durch sein Linux-Know-how unterstützen. In der Freizeit gilt sein Interesse derzeit vor allem Android und Scala.

 

 

Ein Entwickler sieht rot

Untertitel: Was tun bei fehlerhaften JUnit-Tests?

Oliver Böhm, agentes AG

» Vortragsfolien

5. Mai 2011
10:00 - 10:45 Uhr

Dank agiler Methoden dringen Unit-Tests (zu recht) immer mehr ins Bewusstsein vieler Entwickler. Was aber macht man, wenn Testfälle fehlschlagen und der Urheber nicht mehr greifbar ist? Reparieren oder wegschmeißen?

Dies ist nur eines von vielen Problemen, das auch beim Reaktivieren längst verschollener Testfälle auftreten kann. Andere sind:

  • Tests dauern zu lange
  • auf meinem Rechner gibt es keine Datei X:\boehm\testdat.ei
  • Tests laufen lokal, aber nicht auf dem Build-Rechner
  • u.v.m.

Einige der Problem lassen sich durch Nachdenken und JUnit-Boardmitteln lösen. Für andere Probleme bietet PatternTesting eine Reihe von Hilfsmittel, um wieder grünes Licht für's Testen zu erringen.

Übungen

Anhand eines (fiktiven) Projekts zur Verschlüsselung sicherheitskritischer Steuergeheimnisse darf der Teilnehmer sich an vorhandenen Tests versuchen und sie "reparieren". Im ersten Schritt wird er dazu PatternTesting als normale Java-Bibliothek einbinden, um die vorgestellten Tipps & Tricks auszuprobieren.

Bei Bedarf und Interesse kann er diese Bibliothek auch als AspectJ-Bibliothek einbinden, um damit Jagd auf NullPointerExceptions zu machen.

Oliver Böhm Über den Referenten

Oliver Böhm studierte Informatik an der Universität Stuttgart. Nach C++-Entwickung im Unix-Bereich beschäftigt er sich mit Java-Entwicklung unter Linux und Aspekt-Orientierte SW-Entwicklung. Er ist u.a. Autor der Bücher "Fehlerfrei programmieren in C und C++" (dpunkt verlag), "JavaSoftware Engineering unter Linux" (millin Verlag) und "Aspekt-Orientierte Programmierung mit AspectJ 5" (dpunkt.verlag). Neben seiner hauptberuflichen Tätigkeit als J2EE-Entwickler und -Coach bei agentes gibt er AOSD-Vorlesungen und ist Board-Mitglied der JUGS (Java User Group Stuttgart).

 

 

Der Fluch des grünen Balkens in sehr großen Projekten

Jürgen Nicolai, main GmbH

» Vortragsfolien

5. Mai 2011
11:15 - 12:00 Uhr

Junit Tests samt Code Coverage sind in sehr vielen Java Projekten Standard-Verfahren. In sehr großen Projekten mit hoher Dynamik zeigt sich aber, dass gute Unit Tests mit sehr hohem Aufwand verbunden sind und die "Testmoral" oft schleichend abnimmt. Als Gründe werden unter anderem angegeben: "Keine Zeit hoher Projektdruck".
Obwohl es eigentlich nicht so sein sollte: In der Praxis steht der Termin in Konflikt mit der Qualität.
Die Teststrategie lautet dann oft: "Dann testet wenigstens die wichtigen Code-Stellen und alle neuen Features".

Leicht gesagt, schwierig umzusetzen. Hier setzt dieser Workshop an: Wie finden Sie in einem sehr großen Java Projekt geänderten Code, der nicht ausreichend getestet wurde?
Welche direkten und indirekten Auswirkungen bezüglich des Tests hat eine Änderung an einer beliebigen Klasse?
Sehr spannend für Anwender von "Capture And Replay"- Tools: Welche Oberflächen oder Dialoge müssen neu aufgenommen und getestet werden, wenn Code in der Business-Schicht geändert wurde?

Im Vortrag werden die Ansätze erläutert, die praktischen Analysen werden auf Basis des Werkzeugs Health4j durchgeführt.
Die zugrundeliegenden Konzepte sind allgemein gültig und können auch mit "normalen Java-Bordmitteln" nachgebildet werden.

Übungen

Für die Übungen werden mit Healt4J Analysen anhand der Code-Basis von ‚ JFreeChart' durchgeführt. Die Teilnehmer erkennen, welche Fehler in diesem Projekt durch FindBugs, PMD und CheckStyle gefunden werden. Speziell wird auf den Bereich Health4J und JUNIT eingegangen.

Wir möchten die Teilnehmer auch auffordern, ein eigenes Projekt auf Ihrem Laptop durch Health4J analysieren zu lassen. Kleine Projekte ( < 100.000 Lines of Code) lassen sich in ca. 1h aufsetzen. Für die Analyse eigener Projekte benötigen Sie den kompletten Source-Code, die kompilierten Dateien als Jar Datei sowie alle abhängigen Bibliotheken ( z.B. Hibernate oder Spring) als jar Datei.

Das Ergebnis der Analyse Ihres eigenen Source Codes ist auf jeden Fall eine Überraschung ...

Jürgen Nicolai Über den Referenten

Jürgen Nicolai ist Geschäftsführer der main GmbH mit Sitz in Stuttgart. Herr Nicolai ist seit über 10 Jahren im Java Umfeld als Trainer und Coach tätig.
Die main GmbH unterstützt ihre Kunden mit dem Produkt Health4J in den Bereichen statische Code Analyse, Test- und Qualitätsmanagement.

 

 

 

Die Test-Tage werden freundlicherweise unterstützt von
agentes AG GEBIT Solutions GmbH
MID GmbH / sepp med inspectIT
dpunkt.verlag

 

Java User Group Stuttgart eV Java User Group Stuttgart eV
Java User Group Stuttgart eV

zurück zum Seitenanfang