About
- Senior Partner Technical Specialist – Cloud/AI Evangelist @ IBM

Keynote
Enterprise AI – WARUM und WIE LLM’s im eigenen Rechenzentrum / in der eigenen Cloud gehostet werden
Samstag, 01.Februar: 15:15 – 15:45
"Entdecken Sie, wie Unternehmen LLMs sicher und effizient in eigenen Umgebungen hosten können, lernen Sie Best Practices für Cloud Native Toolsets kennen und erfahren Sie anhand eines realen Beispiels, wie Enterprise AI erfolgreich umgesetzt wird – alles unter Berücksichtigung des AI Acts."

Olaf Hahn
Senio Partner Technical Specialist – Cloud/AI Evangelist
Enterprise AI – Warum und WIE LLM's im eigenen Rechenzentrum / in der eigenen Cloud gehostet werden
- LLM's im eigenen Rechenzentrum / in der eigenen Cloud
- AI Act
- Best Practices: Enterprise AI
In diesem Cloud Talk tauchen wir in die Welt der Enterprise AI ein und erfahren, warum und wie Unternehmen Large Language Models (LLMs) in ihren eigenen Rechenzentren oder Cloud-Umgebungen hosten sollten. Hier erfährt man, weshalb verschiedene LLM-Modelle für Unternehmen unverzichtbar sind und wie man die Einhaltung des AI Acts sicherstellen kann. Anhand praktischer „Best Practices“ zur Nutzung von Cloud Native Toolsets wie Kubernetes und OpenShift AI für das LLM Hosting gewinnt man wertvolle Einblicke. Ein konkretes Anwendungsbeispiel zur Patentanalyse bei ABP rundet diesen praxisorientierten Vortrag ab und zeigt, wie Enterprise AI erfolgreich implementiert werden kann.