Episode Description
Aplikacja AI to obecnie najsłabsze ogniwo w systemie bezpieczeństwa firmy, a jej „zatrucie” jest prostsze, niż mogłoby się wydawać. W świecie, gdzie niewidoczny tekst w dokumencie CV lub zwykła naklejka na znaku drogowym stają się skuteczną bronią, tradycyjne zapory ogniowe stają się niemal bezużyteczne.
Dołącz i buduj AI razem z nami:
→ https://spolecznosc.aininjas.pl/
🔔 Subskrybuj, aby nie przegapić nowych odcinków!
W tym odcinku podcastu analizujemy anatomię ataków na modele językowe – od manipulowania danymi wejściowymi po groźne zjawisko „model inversion” i wycieki danych treningowych. Dowiesz się, dlaczego trend „vibe codingu” bez rygorystycznego nadzoru DevSecOps to ryzyko, którego nie warto podejmować, oraz jak techniki „white-on-white” pozwalają przejmować kontrolę nad procesami decyzyjnymi algorytmów. Rozmawiamy także o budowaniu cyberodporności w sektorze finansowym oraz o tym, dlaczego przyszłość bezpiecznego AI w biznesie należy do małych, lokalnie wdrażanych modeli SLM.
Z tego odcinka dowiesz się:
🔹 Jakie są główne techniczne zagrożenia dla modeli AI i na czym polega ich celowa manipulacja.
🔹 Dlaczego małe modele językowe (SLM) stanowią bezpieczniejszą i tańszą alternatywę dla rozwiązań typu LLM.
🔹 Jakie wyzwania prawne i operacyjne nakładają na firmy regulacje AI Act oraz dyrektywa DORA.
🔹 Dlaczego trend „vibe codingu” może zagrażać bezpieczeństwu oraz architekturze tworzonych aplikacji.
🔹 Jak bezpiecznie projektować procesy SDLC w dobie powszechnej generacji kodu przez sztuczną inteligencję.
🔹 Dlaczego problem braku wyjaśnialności decyzji algorytmicznych jest kluczową barierą we wdrażaniu AI w finansach.
🔹 Jakie są skuteczne metody weryfikacji danych wejściowych i wyjściowych w celu ochrony prywatności użytkowników.
🎙Prowadzący: https://www.linkedin.com/in/krzysztof-tutak/
👥 Gość: https://www.linkedin.com/in/marekzibrow/
⭐️ Zobacz też:
🔹#14 Marcin Czarkowski, Przemek Smyrdek - https://youtu.be/SyPF8vhywt8
🔹#12 Adam Gospodarczyk - https://youtu.be/LBG3_L-sbJA
🔹#9 Piotr Brzyski - https://youtu.be/fhpw_5-GWHg
🔹#5 Jakub Mrugalski - https://youtu.be/gEhMWWaXfkQ
🔹#4 Mateusz Chrobok - https://youtu.be/AWC6c-fOcFE
Linki i transkrypcja:
🔹https://bliskiespotkaniazai.pl/r25
Rozdziały:
00:00 Dziś w odcinku
02:08 Wprowadzenie
02:15 Marek Zibrow
03:22 Studia na Stanfordzie vs Polsce
04:58 Muzyka elektroniczna i syntezatory
06:33 Sztuczna inteligencja w muzyce
08:15 Czy firmy ignorują ryzyka AI?
10:49 5 klas zagrożeń AI
11:58 Ataki adwersarialne na modele
15:16 Ataki impersonacyjne i uniki AI
16:47 Zatruwanie danych treningowych (Data Poisoning)
21:41 Problem uprzedzeń i algorytmiczny rasizm
24:50 Prywatność i wycieki z modeli
31:42 Jak bezpiecznie wdrażać AI?
32:41 SLM vs LLM: Co wybrać?
36:20 Zastosowanie modeli SLM w bankowości
44:55 Pułapka budowania agentów ogólnych
48:35 Dlaczego vibe coding to błąd?
52:45 Bezpieczne programowanie w dobie AI
55:10 AI Act a dane osobowe
57:15 Czym jest dyrektywa DORA?
01:04:06 Czy regulacje blokują innowacje AI?
01:09:50 Weryfikacja bezpieczeństwa odpowiedzi AI
01:24:07 SDLC i testy jakości kodu
01:39:43 Polecane materiały i inspiracje
01:46:15 Zakończenie
#AI #Cybersecurity #SztucznaInteligencja #VibeCoding #SLM