#25 Małe modele AI drogą do cyfrowej suwerenności | Marek Zibrow

February 6
1h 47m

Episode Description

Aplikacja AI to obecnie najsłabsze ogniwo w systemie bezpieczeństwa firmy, a jej „zatrucie” jest prostsze, niż mogłoby się wydawać. W świecie, gdzie niewidoczny tekst w dokumencie CV lub zwykła naklejka na znaku drogowym stają się skuteczną bronią, tradycyjne zapory ogniowe stają się niemal bezużyteczne.



Dołącz i buduj AI razem z nami:

https://spolecznosc.aininjas.pl/



🔔 Subskrybuj, aby nie przegapić nowych odcinków!



W tym odcinku podcastu analizujemy anatomię ataków na modele językowe – od manipulowania danymi wejściowymi po groźne zjawisko „model inversion” i wycieki danych treningowych. Dowiesz się, dlaczego trend „vibe codingu” bez rygorystycznego nadzoru DevSecOps to ryzyko, którego nie warto podejmować, oraz jak techniki „white-on-white” pozwalają przejmować kontrolę nad procesami decyzyjnymi algorytmów. Rozmawiamy także o budowaniu cyberodporności w sektorze finansowym oraz o tym, dlaczego przyszłość bezpiecznego AI w biznesie należy do małych, lokalnie wdrażanych modeli SLM.


Z tego odcinka dowiesz się:

🔹 Jakie są główne techniczne zagrożenia dla modeli AI i na czym polega ich celowa manipulacja.

🔹 Dlaczego małe modele językowe (SLM) stanowią bezpieczniejszą i tańszą alternatywę dla rozwiązań typu LLM.

🔹 Jakie wyzwania prawne i operacyjne nakładają na firmy regulacje AI Act oraz dyrektywa DORA.

🔹 Dlaczego trend „vibe codingu” może zagrażać bezpieczeństwu oraz architekturze tworzonych aplikacji.

🔹 Jak bezpiecznie projektować procesy SDLC w dobie powszechnej generacji kodu przez sztuczną inteligencję.

🔹 Dlaczego problem braku wyjaśnialności decyzji algorytmicznych jest kluczową barierą we wdrażaniu AI w finansach.

🔹 Jakie są skuteczne metody weryfikacji danych wejściowych i wyjściowych w celu ochrony prywatności użytkowników.


🎙Prowadzący: https://www.linkedin.com/in/krzysztof-tutak/

👥 Gość: https://www.linkedin.com/in/marekzibrow/


⭐️ Zobacz też:

🔹#14 Marcin Czarkowski, Przemek Smyrdek - https://youtu.be/SyPF8vhywt8

🔹#12 Adam Gospodarczyk - https://youtu.be/LBG3_L-sbJA

🔹#9 Piotr Brzyski - https://youtu.be/fhpw_5-GWHg

🔹#5 Jakub Mrugalski - https://youtu.be/gEhMWWaXfkQ

🔹#4 Mateusz Chrobok - https://youtu.be/AWC6c-fOcFE


Linki i transkrypcja:

🔹https://bliskiespotkaniazai.pl/r25


Rozdziały:

00:00 Dziś w odcinku

02:08 Wprowadzenie

02:15 Marek Zibrow

03:22 Studia na Stanfordzie vs Polsce

04:58 Muzyka elektroniczna i syntezatory

06:33 Sztuczna inteligencja w muzyce

08:15 Czy firmy ignorują ryzyka AI?

10:49 5 klas zagrożeń AI

11:58 Ataki adwersarialne na modele

15:16 Ataki impersonacyjne i uniki AI

16:47 Zatruwanie danych treningowych (Data Poisoning)

21:41 Problem uprzedzeń i algorytmiczny rasizm

24:50 Prywatność i wycieki z modeli

31:42 Jak bezpiecznie wdrażać AI?

32:41 SLM vs LLM: Co wybrać?

36:20 Zastosowanie modeli SLM w bankowości

44:55 Pułapka budowania agentów ogólnych

48:35 Dlaczego vibe coding to błąd?

52:45 Bezpieczne programowanie w dobie AI

55:10 AI Act a dane osobowe

57:15 Czym jest dyrektywa DORA?

01:04:06 Czy regulacje blokują innowacje AI?

01:09:50 Weryfikacja bezpieczeństwa odpowiedzi AI

01:24:07 SDLC i testy jakości kodu

01:39:43 Polecane materiały i inspiracje

01:46:15 Zakończenie



#AI #Cybersecurity #SztucznaInteligencja #VibeCoding #SLM

See all episodes