Olaf Hahn

Senior Partner Technical Specialist – Cloud/AI Evangelist @ IBM

About

  • Senior Partner Technical Specialist – Cloud/AI Evangelist @ IBM
CD2_IBM_Cloud.png

Keynote

Enterprise AI – WARUM und WIE LLM’s im eigenen Rechenzentrum / in der eigenen Cloud gehostet werden

Samstag, 01.Februar: 15:15 – 15:45

"Entdecken Sie, wie Unternehmen LLMs sicher und effizient in eigenen Umgebungen hosten können, lernen Sie Best Practices für Cloud Native Toolsets kennen und erfahren Sie anhand eines realen Beispiels, wie Enterprise AI erfolgreich umgesetzt wird – alles unter Berücksichtigung des AI Acts."
Olaf Hahn
Senio Partner Technical Specialist – Cloud/AI Evangelist

Enterprise AI – Warum und WIE LLM's im eigenen Rechenzentrum / in der eigenen Cloud gehostet werden

In diesem Cloud Talk tauchen wir in die Welt der Enterprise AI ein und erfahren, warum und wie Unternehmen Large Language Models (LLMs) in ihren eigenen Rechenzentren oder Cloud-Umgebungen hosten sollten. Hier erfährt man, weshalb verschiedene LLM-Modelle für Unternehmen unverzichtbar sind und wie man die Einhaltung des AI Acts sicherstellen kann. Anhand praktischer „Best Practices“ zur Nutzung von Cloud Native Toolsets wie Kubernetes und OpenShift AI für das LLM Hosting gewinnt man wertvolle Einblicke. Ein konkretes Anwendungsbeispiel zur Patentanalyse bei ABP rundet diesen praxisorientierten Vortrag ab und zeigt, wie Enterprise AI erfolgreich implementiert werden kann.