KI‑Architektur im Web‑Stack: Die Weichenstellungen, die den Unterschied machen
Die Integration von KI‑Funktionalität in Webapplikationen stellt selbst erfahrene Architektinnen und Architekten vor neue, oft ungewohnte Designentscheidungen. Dieser Vortrag konzentriert sich auf genau diese architektonischen Weichenstellungen und zeigt, wie sich Large Language Models und andere KI‑Komponenten sinnvoll, sicher und skalierbar in JavaScript‑basierte Systeme einbetten lassen.
Im Mittelpunkt stehen die Kernfragen, die heute jede KI‑Architektur prägen: Wie strukturiert man Kontextverwaltung und Wissenszugriff? Welche Rolle spielt Prompt Engineering als echte Architekturdimension? Wo liegen die Grenzen zwischen Backend‑Logik, Orchestrierung und Modellverantwortung? Wie beeinflussen Latenz, Kosten, Observability und Sicherheitsanforderungen die Wahl zwischen Edge‑ und Cloud‑Inferenz?
Anhand kompakter Beispiele erfährst du, wie diese Entscheidungen in der Praxis aussehen – von API‑Design und Request‑Pipelines bis zu Strategien für Caching, Streaming und Fehlerrobustheit.
Vorkenntnisse
Solide JavaScript-Kenntnisse
Erste Erfahrungen mit der Arbeit mit LLMs
Lernziele
Du lernst, wie du zentrale Architekturentscheidungen für KI‑gestützte Webapplikationen triffst und dabei Kontextverwaltung, Modellintegration und Orchestrierung bewusst gestaltest.
Außerdem erkennst du, wie technische Faktoren wie Latenz, Kosten, Sicherheit und Infrastrukturwahl deine Designentscheidungen beeinflussen und wie du daraus robuste, skalierbare Lösungen ableitest.
Speaker
Sebastian Springer weckt als Dozent für JavaScript, Sprecher auf Konferenzen und Autor die Begeisterung für professionelle Entwicklung mit JavaScript. LinkedIn