Kun je als DevOps engineer niet zonder ChatGPT, maar is het gebruik ervan op het werk verboden vanwege beleidsregels of gevoelige data? Ben je benieuwd hoe je je eigen Large Language Model (LLM) kunt hosten? Volg dan deze cursus!
Tijdens de eendaagse workshop Generatieve AI voor DevOps Engineers leer je hoe je jouwe eigen lokale versie van ChatGPT kunt opzetten en gebruiken zonder je data naar de cloud te sturen en volledig op basis van open source technologie.
De dag begint met de basis van Generatieve AI, welke LLMs beschikbaar zijn en hoe je ze kunt gebruiken. We duiken in de hardware-aspecten en laten zien hoe je GPU-acceleratie kunt toepassen op Virtual Machines en in Containers.
Door middel van diverse praktische oefeningen zet je je eigen large language model server op en maak je zelfs je eigen model. Je leert hoe je een web-based client verbindt met je eigen Large Language Model, waardoor je in feite je eigen ChatGPT-kloon creëert.
Daarnaast ontdek je hoe je verbinding maakt met de LLM API en Python, hoe je Retrieval Augmented Generation toepast om je eigen documenten te gebruiken met je llm, en hoe je afbeeldingen analyseert met je eigen LLM. We gaan ook in op log-analyse met behulp van je LLM.
Deze cursus wordt verzorgd i.s.m. onze partner AT Computing.