LLM-Security: Webanwendungen vor KI-basierten Angriffen schützen

Die Integration großer Sprachmodelle (LLMs) in Webanwendungen bringt neue Sicherheitsrisiken mit sich. Diese Session stellt die häufigsten Angriffstechniken wie Prompt Injection und ungewollte Datenlecks vor.

Anhand praxisnaher Beispiele erfährst du, wie Angreifer KI-gestützte Systeme manipulieren können. Der Fokus liegt auf den konkreten Gefahren für Webanwendungen und darauf, wie grundlegende Schutzmaßnahmen helfen, potenzielle Schwachstellen zu minimieren.

Lernziele

  • sich der Risiken bei der Verwendung von LLMs bewusst werden
  • defensive Maßnahmen kennenlernen

Speaker

 

Clemens  Hübner
Clemens Hübner beschäftigt sich seit über 15 Jahren mit der Schnittmenge von Softwareentwicklung und Security. Nach Tätigkeiten als Software Developer sowie im Penetration Testing ist er seit 2018 als Security Engineer bei inovex. Dort begleitet er heute Entwicklungsprojekte auf Konzeptions- und Implementierungsebene, hält Trainings und spricht auf nationalen und internationalen Konferenzen.
LinkedIn