Die im Konferenzprogramm der SEACON digital 2021 angegebenen Uhrzeiten entsprechen der Central European Summer Time (CEST).
Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.
Gerne können Sie die Konferenzprogramm auch mit Ihren Kollegen und/oder über Social Media teilen.
Der Track+ besteht aus Präsentationen der Sponsoren und unterliegt somit nicht der Qualitätssicherung des Fachbeirates.
Bitte beachten Sie, dass es für vereinzelte Workshops eine Teilnehmerbeschränkung gibt. Weitere Infos hierzu finden Sie in den Workshop-Beschreibungen.
Wir streben alle nach möglichst hoher Qualität unseres Codes, wissen aber gleichzeitig dass eine gewisse Zahl an Qualitätsproblemen immer anwesend ist. Statt auf absolute Perfektion zu zielen, ist es oft viel sinnvoller zu schauen, ob man mit seinen Problemen im erwartbaren Bereich, oder deutlich darüber oder darunter liegt. Daraus lässt sich z.B. Handlungsbedarf ableiten und die Notwendigkeit zur Modernisierung argumentieren.
In unseren Audits haben wir über die Jahre eine Vielzahl an Systemen vermessen und bewertet. Die daraus resultierenden Ergebnisse erlauben es uns nun einen Benchmark zu präsentieren, der zeigt in welchem Bereich sich die Systeme hinsichtlich verschiedener Qualitätseigenschaften des Codes, wie z.B. der Struktur, Redundanz oder Kommentierung bewegen. Mit unserem Vortrag skizzieren wir demnach unter Berücksichtigung der Programmiersprache eine Erwartungshaltung, die jeder mitnehmen und mit seinem eigenen Code abgleichen kann.
Zielpublikum: Qualitätsverantwortliche, Architekten, Entwickler, Projektleiter
Voraussetzungen: Für diesen Vortrag sind keine besonderen Voraussetzungen notwendig.
Schwierigkeitsgrad: Basic
Extended Abstract:
Wir streben alle nach möglichst hoher Qualität unseres Codes, wissen aber gleichzeitig dass eine gewisse Zahl an Qualitätsproblemen immer anwesend ist. Es besteht zum Teil ein deutlicher Unterschied zwischen dem theoretischen Idealbild und der tatsächlichen Code-Qualität in der Praxis. Diese Diskrepanz macht es uns schwer zu erkennen wo relevante Erosion stattfindet und ggf. Gegenmaßnahmen erforderlich sind. Statt unseren Code also mit dem Idealbild zu vergleichen, ist es oft viel sinnvoller zu schauen, ob man mit seinen Problemen im erwartbaren Bereich, oder deutlich darüber oder darunter liegt. Daraus lässt sich z.B. Handlungsbedarf ableiten und die Notwendigkeit zur Modernisierung argumentieren.
In unseren Audits haben wir über die Jahre eine Vielzahl an Systemen vermessen und bewertet. Die daraus resultierenden Ergebnisse erlauben es uns nun einen Benchmark zu präsentieren, der zeigt in welchem Bereich sich die Systeme hinsichtlich verschiedener Qualitätseigenschaften des Codes, wie z.B. der Struktur, Redundanz oder Kommentierung bewegen. Mit unserem Vortrag skizzieren wir demnach unter Berücksichtigung der Programmiersprache eine Erwartungshaltung, die jeder mitnehmen und mit seinem eigenen Code abgleichen kann. Im Vergleich zu vielen anderen Benchmarks die lediglich Open-Source-Systeme berücksichtigen, basiert unser Benchmark vorwiegend auf proprietärem Code.
Zusätzlich zu den konkreten Ergebnissen teilen wir unsere Erfahrungen beim Aufbau und Einsatz eines solchen Benchmarks. Hierbei diskutieren wir unter anderem was beim Vergleich von Systemen zu berücksichtigen ist. Hierzu zählt unter anderem der Umgang mit verschiedenen Arten von Code (z.B. handgeschrieben vs. generiert) und die manuelle Validierung der Messergebnisse. Wir sprechen auch darüber, welche Aussagen man aufgrund eines solchen Benchmarks treffen kann und welche nicht.
Nach unserem Vortrag kennen die Teilnehmer das grundlegende Vorgehen, aber auch die typischen Fallstricke, beim Vergleichen der Code-Qualität verschiedener Systeme. Der von uns präsentierte Benchmark zeigt was man als 'normal' in Bezug auf verschiedene Qualitätskriterien erwarten kann und wo Abweichungen auf Nachbesserungsbedarf hinweisen.
Vortrag Teilen