Konferenzprogramm

Wo kann ich die Vorträge verfolgen?

Online aus dem (Home-)Office: Ganztägig
In unseren Showrooms: Jeweils ab 13 Uhr (Mehr Infos)

Nach Tracks filtern
Alle ausklappen
  • Dienstag
    03.12.
09:00 - 09:15
Begrüßung
Begrüßung

Alexander Neumann, Chief Content Officer des Veranstalters SIGS DATACOM, eröffnet den Konferenztag und gibt wertvolle Hinweise zur Gestaltung der SEACON 2024.

Alexander Neumann ist Chief Content Officer bei SIGS DATACOM. In dieser Position ist er verantwortlich für die inhaltliche Ausrichtung des IT-Medienhauses. Zuvor baute er bei Heise Medien den Online-Channel heise Developer auf und das damit verbundene Developer-Konferenz-Business. Zuletzt war er bei Heise als Head of Events für das gesamte Events-Business zuständig.

Alexander Neumann
Alexander Neumann
Vortrag:
flag VORTRAG MERKEN

Vortrag Teilen

09:15 - 12:00
Bis zu 9 Vormittagsvorträge der SEACON 2024
Bis zu 9 Vormittagsvorträge der SEACON 2024

Freuen Sie sich auf eine Vielzahl spannender Vortragsslots rund um die Themen Software Engineering und Softwarearchitektur
Weitere Informationen folgen in Kürze.

Vortrag:
flag VORTRAG MERKEN

Vortrag Teilen

12:15 - 13:15
Mittagspause
Mittagspause

13:00 - 13:05
Begrüßung zum hybriden Nachmittagsprogramm
Begrüßung zum hybriden Nachmittagsprogramm

Nach dem rein online durchgeführten Online-Programm präsentiert die SEACON 2024 am Nachmittag ein hybrides Modell. Sie können vor Ort den jeweiligen Vorträgen in Frankfurt a.M. bei Yatta Solutions, in Hamburg bei der SIGMA Group oder in München bei QAware folgen. Und wenn Sie sich lieber online dazuschalten wollen, kein Problem: Alle Vorträge werden auch online ausgestrahlt.

Alexander Neumann ist Chief Content Officer bei SIGS DATACOM. In dieser Position ist er verantwortlich für die inhaltliche Ausrichtung des IT-Medienhauses. Zuvor baute er bei Heise Medien den Online-Channel heise Developer auf und das damit verbundene Developer-Konferenz-Business. Zuletzt war er bei Heise als Head of Events für das gesamte Events-Business zuständig.

Alexander Neumann
Alexander Neumann
Vortrag:
flag VORTRAG MERKEN

Vortrag Teilen

13:05 - 13:50
Keynote in Hamburg: Kontinuierliche Transformation
Keynote in Hamburg: Kontinuierliche Transformation

Immer wieder kommen IT Organisationen in der digitalen Produktentwicklung an einen Punkt, an dem es gefühlt nicht mehr weitergeht. Die Weiterentwicklung ist langsam geworden und es mangelt an Innovationen. Die Wartung der gewachsenen Systemlandschaft ist aufwändig und der Betrieb bereitet immer häufiger Sorgen. Der naheliegende Lösungsansatz: Ein Projekt zur Transformation starten - entweder auf der grünen Wiese oder mit einem Umbau der bestehenden Landschaft. 

Was oftmals unterschätzt wird, ist die Mehrdimensionalität und Komplexität eines derartigen Projekts. Alle in der Vergangenheit vernachlässigten Dimensionen sollen parallel adressiert werden - der Umbau der Architektur, der Einsatz moderner Technologien, die Migration in die Cloud und zusätzlich eine neue Organisationsform mit agilen, cross-funktionalen Teams und einer übergreifenden Steuerung der Produktentwicklung mit Ansätzen wie OKR oder Flight Levels. 

Jede einzelne Dimension ist komplex und erfordert eine klare Linie und Abgrenzung, was in welchem Zeitraum erreicht werden kann und was nicht. In diesem Vortrag möchte ich aufzeigen, wie eine Transformation als kontinuierlicher Prozess in der Organisation etabliert werden kann.

Oliver arbeitet seit mehr als 20 Jahren im Bereich Ecommerce und hat in unterschiedlichen Rollen die Transformation bei großen Handelsunternehmen vorangetrieben. In den letzten Jahren lag sein Schwerpunkt als Führungskraft in der Transformation der Produkt- und Plattformentwicklung. Sein Ziel dabei ist es, einerseits den Fokus auf Time To Market und Fast Delivery zu setzen und andererseits nachhaltige Organisationen aufzubauen.

Oliver Wegner
Oliver Wegner
Track: Keynote
Vortrag:
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:45
Turbocharging AI Innovation: Wie AI-Plattformen helfen GenAI Use Cases zuverlässig auf die Straße zu bringen
Turbocharging AI Innovation: Wie AI-Plattformen helfen GenAI Use Cases zuverlässig auf die Straße zu bringen

GenAI ist in aller Munde, und Use Cases schießen aus dem Boden. Die Herausforderung: Compliance, Betriebsreife oder Testen sind alles andere als egal und dabei häufig komplex. AI Platforms to the rescue!
Klassisches Platform Engineering hilft dabei: AI-Plattformen verbergen die technische Komplexität und ermöglichen so den Use-Case-Experten, sich auf die Umsetzung der fachlichen Innovationen zu konzentrieren, anstatt sich mit den zugrunde liegenden technischen Details auseinandersetzen zu müssen. Wir beleuchten, wie eine Plattform für Generative AI aussehen kann und welche Building Blocks sie benötigt.

Sonja Wegner is Business Unit Director at QAware. She is responsible for the technical success of projects in the area of aftersales for the customer BMW. Her current focus is on the design and implementation of complex systems and software architectures. 

Sonja Wegner
Sonja Wegner
Vortrag:
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:45
Databaseless Java In-Memory Data Processing
Databaseless Java In-Memory Data Processing

Hibernate ist der De-facto-Standard für die Persistenz traditioneller Java-Datenbankanwendungen. Es wurde für monolithische Java-Anwendungen und auch für monolithische Server-Datenbanken entwickelt. Allerdings ist Hibernate auch als komplex und langsam bekannt, aber wir haben uns daran gewöhnt. Die Cloud, Microservices und Serverless haben Java dramatisch verändert, aber die Persistenz ist immer noch dieselbe. Jetzt hält KI Einzug in Java, und KI erfordert kompromisslose Leistung.
EclipseStore wurde entwickelt, um die nächste Generation der Java-Persistenz für moderne Cloud-native Systeme und KI zu sein. Es folgt dem architektonischen Muster der Systemprävalenz und ermöglicht eine datenbanklose In-Memory-Datenverarbeitung unter Verwendung von Core Java-Funktionen. Im Gegensatz zu herkömmlichen Datenbanksystemen, die datenbankspezifische Datenstrukturen oder -formate bereitstellen, unterstützt EclipseStore das native Java-Objektmodell für die Persistenz von Objekten. Die Engine ermöglicht die nahtlose, transaktionssichere Spiegelung eines Java-Objektgraphen beliebiger Größe und Komplexität in einen beliebigen binären Objektspeicher wie AWS S3. Dies führt zu 3 Hauptvorteilen:
1) Hohe Leistung: Antwort- und Abfragezeiten im Mikrosekundenbereich, viel schneller als vergleichbare JPA-Abfragen,
2) Erhebliche Kosteneinsparungen bei Cloud-Datenbanken: AWS S3-Objektspeicher ist beispielsweise 70-96 % billiger als jede Datenbank in der Cloud wie AWS RDS PostgreSQL oder Maria DB.
3) Einfachheit: nur ein Datenmodell (nur POJOs), alle Java-Typen werden unterstützt, keine teuren Mappings oder Datenkonvertierungen, einfache Architektur, einfache Schemamigration.

Markus entwickelt seit 20 Jahren mit seinem Team Developer-Tools für Java und alle wichtigen Datenbanksysteme sowie Individualsoftware für Endkunden. Er ist Product Owner der freien Eclipse-Distribution und visuellen Java-Entwicklungsumgebung RapidClipse sowie der Open-Source-Abfragesprache JPA-SQL. Markus ist Gründer und CEO von MicroStream.

Markus Kett
Markus Kett
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:45
Pentesting AI and LLM (Large Language Models)
Pentesting AI and LLM (Large Language Models)

Further information will follow soon.

Dmytro Tereshchenko
Dmytro Tereshchenko
flag VORTRAG MERKEN

Vortrag Teilen

15:00 - 15:45
Java-basierte KI auf Kubernetes: Von der Entwicklung bis zum Deployment mit Leichtigkeit
Java-basierte KI auf Kubernetes: Von der Entwicklung bis zum Deployment mit Leichtigkeit

Du bist Java-Entwickler und neugierig auf KI, weißt aber nicht genau, wo du anfangen sollst? In dieser Session führen wir dich durch die Implementierung einer KI-Anwendung in Java und zeigen dir, wie du diese mühelos auf Kubernetes bereitstellen kannst.
Zu Beginn zeigen wir dir, wie Quarkus und LangChain4J die Entwicklung von KI-gesteuerten Anwendungen vereinfachen und komplexe Anwendungsfälle zugänglicher machen. Anschließend werden wir die Herausforderung der Ausführung von KI-Modellen in großem Maßstab mit dem Ollama Operator, einer leichtgewichtigen und dennoch robusten Model-Serving-Lösung für Kubernetes, betrachten. Wir werden auch untersuchen, warum Vektordatenbanken für viele KI-Anwendungsfälle von entscheidender Bedeutung sind. Anschließend diskutieren wir die Bedeutung einer unternehmenstauglichen KI-Plattform, die wichtige Themen wie Testing, Compliance und Sicherheit adressiert, um sicherzustellen, dass deine Organisation die Entwicklung von KI-Anwendungen effizient und regelkonform skalieren kann. In einer spannenden Live-Demo gehen wir den Aufbau und die Ausführung eines realen KI-Anwendungsfalls auf Kubernetes durch und zeigen dir Tools und Best Practices, die dir helfen, dein Projekt zum Erfolg zu führen. Egal, ob du KI-Neuling bist oder deine aktuellen Workflows optimieren möchtest, dieser Vortrag gibt dir praktische Einblicke, um deine KI-Reise in Java zu beschleunigen.

Mario-Leander Reimer ist passionierter Entwickler, stolzer Vater und #CloudNativeNerd. Er ist CTO bei der QAware GmbH und beschäftigt sich intensiv mit den Innovationen und Technologien rund um den Cloud-Native-Stack und deren Einsatzmöglichkeiten im
Unternehmensumfeld. Außerdem unterrichtet er Software-Qualitätssicherung an der TH Rosenheim.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/mario-leander-reimer/

Mario-Leander Reimer
Mario-Leander Reimer
Vortrag:
flag VORTRAG MERKEN

Vortrag Teilen

15:00 - 15:45
Serverless-Betrieb mit AWS sinnvoll gestalten
Serverless-Betrieb mit AWS sinnvoll gestalten

Es besteht das Missverständnis, dass mit den Serverless Services in AWS alles möglich ist, zum Beispiel, dass Lambda-Funktion ohne Einschränkungen skalieren können. Aber jeder AWS-Service (nicht nur Serverless) hat eine lange Liste von Quoten, die jeder verstehen und bei der Entwicklung berücksichtigen muss.
In diesem Vortrag wird er die wichtigsten Dinge erklären, die man für die Skalierbarkeit der AWS-Serverless-Services beachten muss. Er wird die Quoten (aus der Sicht der Hyperskalierbarkeit, aber nicht nur) der Services wie API Gateway, Lambda, DynamoDB, Aurora Serverless, SQS, S3 und andere erklären und wie man seine Lösung unter Berücksichtigung dieser Quoten und der technischen Konzepte der verteilten Systeme wie Token-Bucket-Algorithmus, Durchsatz und Burst-Rate, Nebenläufigkeit, Wiederholung mit exponentiellem Backoff und Jitter und andere als Architektur aufsetzt.
Er wird auch über einige allgemeine architektonische Entscheidungen sprechen, welche Dienste in den Serverless-Anwendungen verwendet werden sollen: DynamoDB oder Aurora (Serverless) für die Wahl der Datenbank und SQS, SNS, Kinesis oder EventBridge für den Fall, dass man asynchrone Kommunikation/ereignisgesteuerte Muster verwenden kann.

Vadym Kazulkin ist Head of Technology Strategy bei der ip.labs GmbH, einer 100-prozentigen Tochtergesellschaft der FUJIFLM-Gruppe, mit Sitz in Bonn. ip.labs ist das weltweit führende White-Label-E-Commerce-Software-Imaging-Unternehmen. Vadym ist seit über zwanzig Jahren mit dem Java-Ökosystem verbunden. Zu seinen Schwerpunkten und Interessen gehören derzeit das Design und die Implementierung von hochskalierbaren und hochverfügbaren Anwendungen Serverless und AWS Cloud. Vadym ist Mitorganisator der Java User Group Bonn und des Serverless Bonn Meetup, und ein häufiger Sprecher auf verschiedenen Meetups und Konferenzen.

Vadym Kazulkin
Vadym Kazulkin
flag VORTRAG MERKEN

Vortrag Teilen

15:00 - 15:45
Generative AI
Generative AI

Further information will follow soon.

Evgeniy Bachinskiy
Evgeniy Bachinskiy
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 16:45
Don't forget to Test: Crafting Reliable Chatbots
Don't forget to Test: Crafting Reliable Chatbots

Herkömmliche Testverfahren funktionieren nicht mit Chatbots und RAG-Anwendungen (Chat with your data)! Der einfache Vergleich eines Outputs mit einer optimalen Antwort ist aufgrund der statistischen Natur von LLMs und ihrer Tendenz zu Halluzinationen unmöglich. Außerdem sind Tests aufgrund der Subjektivität und des Umfangs schwierig. Was macht eine gute Antwort aus und wie reagiert ein Chatbot, wenn man Fragen außerhalb der definierten Regeln stellt? Wir müssen über neue Testtechniken und daraus resultierende KPIs (Key Performance Indicators) nachdenken, um die Zuverlässigkeit, Genauigkeit, Glaubwürdigkeit und Relevanz der Antworten der Chatbots sicherzustellen. Diese Techniken befinden sich noch in der Erforschung und müssen möglicherweise an spezifische Anwendungsfälle angepasst werden.
Wir werden den aktuellen Stand der Forschung in Bezug auf Chatbot-Tests umreißen, eine Reihe von KPIs vorstellen, die für Chatbots wichtig sind, den Stand der Test-Frameworks demonstrieren und mit einem Ausblick auf zukünftige Entwicklungen schließen.

Dr. Marcus Ciolkowski ist Head of Division bei der QAware und verantwortet den fachlichen und technischen Projekterfolg im Bereich Aftersales beim Kunden BMW.
Er hat an der Technischen Universität Kaiserslautern Informatik studiert und später am Fraunhofer Institut für Experimentelles Software Engineering und der TU Kaiserslautern promoviert. 2011 startete er bei QAware als Projektleiter.
Seine aktuellen Schwerpunktthemen sind Softwarequalität, Technische Schulden, Künstliche Intelligenz sowie Data Value.

Marcus Ciolkowski
Marcus Ciolkowski
Vortrag:
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 16:45
Die Zukunft der Open-Source Eclipse IDE
Die Zukunft der Open-Source Eclipse IDE

Die Eclipse IDE ist seit über 20 Jahren eine der meist verwendeten IDEs für die Entwicklung von Java-Anwendungen. Sie ist trotz inzwischen verfügbarer Alternativen weiterhin die einzige IDE, die Open Source ist und es jedem Interessierten erlaubt, Verbesserungen und neue Funktionen beizutragen. Die für die Eclipse IDE entwickelten Java Development Tools (JDT) werden sogar in alternativen Entwicklungsumgebungen wie Visual Studio Code eingesetzt.
Die lange Historie der Eclipse IDE zeigt sich insbesondere bei der User Experience (UX) und dem User Interface (UI), die sich teils deutlich von anderen IDEs unterscheiden. Für Nutzende sind veraltete Nutzungskonzepte eine der Motivationen für den Wechsel zu anderen IDEs. Im Jahr 2021 haben sich die Hersteller großer Eclipse-IDE-basierter Werkzeuge in der Eclipse IDE Working Group zusammengeschlossen, um eine zielgerichtete Weiterentwicklung und Adressierung dieser Einschränkungen sicherzustellen.
In diesem Vortrag wird gezeigt, warum die Eclipse IDE noch immer eine ernstzunehmende IDE für die Java-Entwicklung ist. Ich zeige, wie einfach es für jeden Java-Entwickler ist, zur Eclipse IDE beizutragen und wie er oder sie davon profitieren und die tägliche Arbeit mit der IDE verbessern kann. Ich stelle außerdem aktuelle und kommende Verbesserungen der User Experience vor. Diese umfassen die Überarbeitung überholter Nutzungskonzepte und der UI, Vereinfachungen des Setups, sowie Verbesserungen der Reaktionsfähigkeit.

Heiko arbeitet bei der Vector Informatik GmbH als Senior-Softwareentwickler für PREEvision, ein Modellierungswerkzeug für elektrisch-elektronische Architekturen. Er ist für die Entwicklung der open-source Eclipse IDE und Eclipse RCP Platform, den Basistechnologien für PREEvision, zuständig. Das Eclipse-Platform-Projekt unterstützt er als Eclipse Committer. Vor seiner Arbeit bei Vector arbeitete Heiko am KIT als wissenschaftlicher Mitarbeiter für Softwaretechnik mit einem Fokus auf modellgetriebene Softwareentwicklung.

Heiko Klare
Heiko Klare
flag VORTRAG MERKEN

Vortrag Teilen

16:00 - 16:45
GenAI vs ChatGPT
GenAI vs ChatGPT

Further information will follow soon.

Viktor Lukachyk
Viktor Lukachyk
flag VORTRAG MERKEN

Vortrag Teilen

16:45 - 20:00
Get-together in Frankfurt, Hamburg oder München
Get-together in Frankfurt, Hamburg oder München

Unsere sogenannten Gastgeber bieten vor Ort den Rahmen, um sich bei Getränken und Essen auszutauschen und miteinander zu vernetzen.

Vortrag:
flag VORTRAG MERKEN

Vortrag Teilen

Zurück