LLM-Security: Webanwendungen vor KI-basierten Angriffen schützen

Die Integration großer Sprachmodelle (LLMs) in Webanwendungen bringt neue Sicherheitsrisiken mit sich. Diese Session stellt die häufigsten Angriffstechniken wie Prompt Injection und ungewollte Datenlecks vor.

Anhand praxisnaher Beispiele erfährst du, wie Angreifer KI-gestützte Systeme manipulieren können. Der Fokus liegt auf den konkreten Gefahren für Webanwendungen und darauf, wie grundlegende Schutzmaßnahmen helfen, potenzielle Schwachstellen zu minimieren.

Vorkenntnisse

Keine spezifischen Vorkenntnisse notwendig. Der Einstieg ist für alle nachzuvollziehen. Viele spannende Beispiele aus der Wirtschaft, die massiv schiefgelaufen sind. Danach werden Lösungen vorgestellt. Zuletzt folgt ein kurzer und oberflächlicher Ausflug in mögliche Anwendungsarchitekturen.

Lernziele

  • sich der Risiken bei der Verwendung von LLMs bewusst werden
  • defensive Maßnahmen kennenlernen

Speaker

 

Peter Krajcik
Peter Krajcik ist Principal Software Engineer bei NielsenIQ und arbeitet vorwiegend an Systemen, die große Datenmengen verarbeiten müssen. Seit Anfang 2023 ist er Teil des firmeninternen Generative-AI Teams und arbeitet an der praktischen Anwendung sowie Produktentwicklung auf Basis von großen Sprachmodellen (LLM).
LinkedIn

enterJS-Newsletter

Du möchtest über die enterJS
auf dem Laufenden gehalten werden?

 

Anmelden