Generatywna AI i duże modele językowe (LLM) dla działów IT

białe linie, sieci neuronowe na zielonym tle.

Jak efektywnie wykorzystać potencjał generatywnej AI w codziennej pracy zespołów IT? Jakie techniczne aspekty muszą znać programiści i architekci, by tworzyć solidne rozwiązania oparte na LLM?

To intensywne, trzydniowe szkolenie to kompleksowe wprowadzenie w świat praktycznych zastosowań generatywnej AI w IT. Poznasz zarówno teoretyczne fundamenty działania modeli językowych, jak i zaawansowane techniki ich implementacji w projektach produkcyjnych. Od zrozumienia architektury transformers, przez zaawansowaną inżynierię promptów, aż po budowę własnych aplikacji wykorzystujących najnowsze modele LLM.

Program łączy solidne podstawy teoretyczne z intensywnymi warsztatami praktycznymi:
– Architektura i działanie nowoczesnych modeli generatywnych
– Zaawansowane techniki inżynierii promptów dla profesjonalistów IT
– Implementacja rozwiązań opartych na API modeli językowych
– Budowa systemów z pamięcią kontekstową (RAG) i fine-tuning modeli
– Tworzenie własnych asystentów AI z wykorzystaniem dostępnych narzędzi

Zdobądź kompetencje, które pozwolą Ci świadomie projektować, wdrażać i optymalizować rozwiązania oparte na generatywnej AI w profesjonalnym środowisku IT.

Dla kogo:

Programiści i inżynierowie oprogramowania
Architekci systemów IT i tech leadzi
DevOps i specjaliści ds. infrastruktury chmurowej
Liderzy zespołów IT i kierownicy projektów technologicznych
Specjaliści ds. innowacji technologicznych i R&D

Program:

Dzień I:

Fundamenty generatywnej AI i modeli językowych

Wprowadzenie do generatywnej AI w kontekście IT (1.5h)
  • Omówienie koncepcji i głównych typów sztucznej inteligencji
  • Kluczowe różnice między tradycyjną a generatywną AI
  • Ekosystem narzędzi GenAI dla zespołów IT — mapowanie możliwości
  • Przegląd zastosowań generatywnej AI w procesach IT: kodowanie, testowanie, debugging, dokumentacja
  • Aktualne trendy w rozwoju modeli generatywnych i ich znaczenie dla branży IT
  • Dyskusja grupowa: Identyfikacja obszarów IT o największym potencjale zastosowań GenAI
Architektura i działanie modeli generatywnych (2.5h)
  • Wprowadzenie do sieci neuronowych i uczenia maszynowego
  • Architektura Transformer – fundamenty działania nowoczesnych modeli językowych
  • Mechanizm uwagi (attention mechanism) i jego znaczenie w przetwarzaniu sekwencji tokenów
  • Tokenizacja i wektoryzacja (embeddings) w kontekście przetwarzania języka
  • Empiryczne prawa skalowania modeli – dlaczego rozmiar ma znaczenie
  • Zasada działania mechanizmu predykcji kolejnego tokenu w interfejsach dialogowych
Praktyczne aspekty pracy z modelami językowymi (2h)
  • Dostęp do modeli generatywnych – przegląd dostępnych opcji dla zespołów IT
  • Modele lokalne vs. modele dostępne przez API – analiza trade-offs
  • Kluczowe parametry wpływające na generację: max tokens, temperatura, top-p, frequency penalty
  • Ograniczenia okna kontekstowego i zarządzanie pamięcią kolejnego modelu
  • Ćwiczenia praktyczne: Eksperymentowanie z parametrami generacji w środowisku testowym
Wprowadzenie do inżynierii promptów (2h)
  • Koncepcja i znaczenie inżynierii promptów w komunikacji z modelami AI
  • Podstawowe techniki formułowania skutecznych promptów: zero-shot, few-shot
  • Role prompting – określanie kontekstu i roli modelu
  • Konstrukcja struktur promptów dla standardowych zastosowań IT
  • Analiza przykładów skutecznych promptów dla zadań programistycznych
  • Warsztaty: Tworzenie i testowanie bazowych promptów dla różnych zadań IT

Dzień II:

Projektowanie rozwiązań opartych na LLM

Zaawansowane techniki inżynierii promptów (2.5h)
  • Chain-of-Thought (CoT) – prowadzenie modelu przez proces rozumowania
  • Prompty refleksyjne (Reflexion) – implementacja mechanizmów samokorekty
  • Metaprompting i techniki rekurencyjne – zaawansowane podejścia do złożonych problemów
  • Techniki obsługi długich kontekstów i złożonych instrukcji
  • Prompting dla zadań specjalistycznych: generacja kodu, refaktoryzacja, analiza błędów
  • Warsztaty: Projektowanie zaawansowanych promptów dla złożonych scenariuszy IT
Modele multimodalne i ich zastosowania w IT (1.5h)
  • Wprowadzenie do modeli multimodalnych (tekst, obrazy, audio)
  • Praktyczne zastosowania modeli multimodalnych w procesach IT
  • Analiza kodu i diagramów z wykorzystaniem modeli wizyjnych
  • Generowanie wizualizacji i mockupów z opisów tekstowych
  • Demonstracja: Wykorzystanie modeli multimodalnych w analizie UI/UX i dokumentacji technicznej
Projektowanie aplikacji opartych na LLM (2h)
  • Architektura systemów wykorzystujących modele językowe – kluczowe komponenty
  • Podejścia do integracji LLM z istniejącymi systemami IT
  • Zarządzanie stanem konwersacji i pamięcią w aplikacjach opartych na LLM
  • Strategia obsługi błędów i przypadków brzegowych w systemach GenAI
  • Projektowanie LLM jako elementu większego systemu vs. centralnego komponentu
  • Ćwiczenie: Zaprojektowanie architektury aplikacji wykorzystującej LLM dla przykładowego przypadku użycia
Implementacja rozwiązań z wykorzystaniem API (2h)
  • Struktura zapytań do API modeli językowych (format ChatML)
  • Implementacja podstawowych wywołań API w Pythonie
  • Tryby strukturyzowanych wyjść (JSON) i ich zastosowanie w aplikacjach
  • Function calling – delegowanie zadań do zewnętrznych funkcji
  • Obsługa asynchroniczności i zarządzanie kosztami wywołań API
  • Warsztaty w Google Colab: Tworzenie prostej aplikacji wykorzystującej API modeli językowych

Dzień III:

Zaawansowane implementacje AI i wdrożenia produkcyjne

Retrieval-Augmented Generation (RAG) (1.5h)
  • Koncepcja i architektura systemów RAG
  • Przetwarzanie dokumentów i tworzenie bazy wiedzy kontekstowej
  • Wektoryzacja treści i budowa indeksów wyszukiwania
  • Strategie wyszukiwania: similarity search, hybrid search, re-ranking
  • Integracja wyników wyszukiwania z promptami LLM
  • Warsztaty: Budowa prostego systemu RAG z wykorzystaniem bazy wektorowej i API LLM
Fine-tuning modeli AI (1h)
  • Kiedy i dlaczego warto dostrajać modele – analiza przypadków użycia
  • Przygotowanie danych treningowych dla procesu fine-tuningu
  • Techniki efektywnego dostrajania modeli językowych
  • Ewaluacja skuteczności dostrojonych modeli
  • Najlepsze praktyki i typowe pułapki w procesie fine-tuningu
  • Demonstracja: Proces fine-tuningu modelu na przykładowym zestawie danych
Agenci AI i zastosowania autonomiczne (2.5h)
  • Koncepcja agentów AI i ich rola w automatyzacji procesów IT
  • Architektura systemów wieloagentowych
  • Implementacja agentów z wykorzystaniem OpenAI Assistants API
  • Strategie koordynacji i komunikacji między agentami
  • Przykłady zastosowań agentów w DevOps, monitoringu i zarządzaniu infrastrukturą
  • Demonstracja: Budowa prostego agenta automatyzującego zadania DevOps
Bezpieczeństwo i wdrażanie produkcyjne (1,5h)
  • Zagrożenia bezpieczeństwa w systemach opartych na LLM: prompt injection, data extraction
  • Strategie mitigacji ryzyka związanego z hallucynacjami i nieprawidłowymi odpowiedziami
  • Ochrona danych wrażliwych przy korzystaniu z zewnętrznych API
Podsumowanie i przyszłość generatywnej AI w IT (1h)
  • Trendy rozwoju generatywnej AI i ich wpływ na branżę IT
  • Strategie budowania kompetencji zespołu w obszarze AI
  • Postawy wobec AI i budowanie kultury Collaborative Intelligence
  • Praktyczne wskazówki dotyczące implementacji pierwszych projektów GenAI
  • Podsumowanie szkolenia, sesja pytań i odpowiedzi

Efekty kształcenia:

Zrozumiesz techniczne fundamenty działania modeli generatywnych, w tym architekturę transformers i mechanizmy działania LLM
Opanujesz zaawansowane techniki inżynierii promptów umożliwiające uzyskanie precyzyjnych rezultatów w pracy z LLM
Zaimplementujesz rozwiązania wykorzystujące API modeli językowych z kontrolą parametrów generacji i obsługą strukturyzowanych wyjść
Zbudujesz system z pamięcią kontekstową (RAG) wykorzystujący bazy wektorowe do przechowywania specjalistycznej wiedzy
Zaprojektujesz i stworzysz własnego asystenta AI dla zespołu programistycznego
Opracujesz strategię bezpiecznego wdrażania rozwiązań opartych na generatywnej AI w środowisku produkcyjnym

Wymagania:

  • Praktyczne doświadczenie w programowaniu (znajomość podstaw Pythona będzie przydatna)
  • Podstawowa wiedza z zakresu architektury systemów IT
  • Własny laptop z dostępem do internetu

Nazwa

Generatywna AI i duże modele językowe (LLM) dla działów IT

Format

Stacjonarne

Kategoria

Narzędzia

OpenAI API (GPT-4o, GPT-3.5-turbo)

Google Colab

Chroma/Qdrant/Weaviate

HuggingFace Transformers

Czas trwania

3 dni (24 godz.)

Typ szkolenia

Otwarte

Kategoria

Marketing

Dostępne terminy

12.03.2025

10.05.2025

Trenerzy

Mikołaj Tajchman

Wycena

od 1 661,98 / osobę

Liczba uczestników

5 wolnych miejsc

Miejsce

Online

Zyskaj do 20%
rabatu na szkolenie

Zapytaj swojego opiekuna o rabat dla grup

Chcesz zorganizować zamknięte szkolenie dla Twojej firmy?

Wypełnij krótki formularz i odbierz darmową wycenę, lub umów bezpłatną konsultację aby dowiedzieć się więcej.

Formularz kontaktowy

Rozmowa to pierwszy krok do nowych możliwości.
Wypełnij krótki formularz i porozmawiajmy o konkretach.
Rozmowa to pierwszy krok do nowych możliwości.
Wypełnij krótki formularz i porozmawiajmy o konkretach.