VIEW SPEECH SUMMARY
- Technologia tworzenia cyfrowych kopii zmarłych osób (np. chatboty, awatary) już istnieje (przykład firmy DeepMind AI, usługa Rememory).
- Koszt usługi jest wysoki, dostępna dla nielicznych.
- Istnieje ryzyko zatrzymania się w żałobie, gdy bliscy za bardzo utożsamiają się z cyfrową namiastką zmarłego.
- Pojawia się problem prawny: kto odpowiada za działanie takich systemów po śmierci osoby?
- Sugerowana jest konieczność wprowadzenia klauzul zgody na wykorzystanie cyfrowych danych po śmierci (np. checkboxy w aplikacjach).
Zadania do rozważenia:
- Opracowanie ram prawnych i etycznych dotyczących tworzenia i użytkowania cyfrowych osobowości.
- Wprowadzenie jasnych zgód na przetwarzanie danych po śmierci użytkowników.
---
2. Deepfake, autentyczność danych i manipulacja
- Technologia generująca realistyczne obrazy i filmy staje się niemal nieodróżnialna od rzeczywistości.
- Rośnie wyścig pomiędzy algorytmami tworzącymi deepfake'i a tymi, które je wykrywają.
- Propozycja technicznego zabezpieczenia i weryfikacji autentyczności materiałów (autoryzacja, blockchain, podpis cyfrowy).
Zadania do rozważenia:
- Edukacja oraz trening użytkowników w rozpoznawaniu fake'ów.
- Rozwój i implementacja systemów potwierdzających wiarygodność materiałów medialnych.
---
3. Autonomiczne broń i roboty bojowe
- Roboty bojowe z AI i autonomiczne drony są w zaawansowanym stadium rozwoju i wykorzystywane w praktyce (m.in. konferencja NATO, doświadczenia z Ukrainą).
- Europejskie regulacje wymagają, aby człowiek zatwierdzał decyzje o użyciu siły (tzw. "human in the loop").
- Istnieją przypadki błędów i niezamierzonych ataków wynikających z wad oprogramowania.
- Pojawia się ryzyko przejęcia kontroli przez niepowołane osoby (hakerów) i użycia technologii przeciw ludziom.
Zadania do rozważenia:
- Dalsze wzmacnianie regulacji prawnych i technicznych zabezpieczeń.
- Opracowanie mechanizmów odpowiedzialności i egzekwowania prawa w przypadku incydentów.
---
4. Cyberbezpieczeństwo IoT i prywatność w inteligentnych domach
- Urządzenia IoT często mają słabe zabezpieczenia, co ułatwia przejęcie kontroli nad całym systemem domowym.
- Praktyki wskazujące na konieczność tworzenia odrębnych sieci dla urządzeń IoT oraz stosowania nowoczesnych, dobrze zabezpieczonych urządzeń.
- Problem sprzedaży nagrań z kamer do firm trenujących modele AI i związane z tym kwestie prawne (RODO, zgody gości w domu).
Zadania do rozważenia:
- Promocja świadomości użytkowników na temat zarządzania bezpieczeństwem IoT.
- Wprowadzenie i egzekwowanie bardziej restrykcyjnych regulacji dotyczących prywatności i wykorzystania danych.
---
5. Systemy scoringu społecznego i ich wpływ na życie obywateli
- Istnieją systemy oceny punktowej (scoring) wykorzystywane m.in. przez instytucje finansowe na podstawie danych z mediów społecznościowych (przykład Friendly Score).
- W Chinach działają systemy scoringu społecznego, które wpływają na dostęp do usług publicznych i prywatnych.
- W UE obowiązują regulacje (m.in. RODO, AI-Act), które mają chronić przed automatycznym podejmowaniem decyzji bez nadzoru człowieka oraz zakazują scoringu społecznego na szeroką skalę.
- Problem braku transparentności i czytania zgód przez użytkowników.
Zadania do rozważenia:
- Utrzymanie i rozwój regulacji chroniących przed dyskryminacją i nadmierną automatyzacją decyzji.
- Podnoszenie świadomości o konsekwencjach udzielania zgód na przetwarzanie danych.
---
6. Perspektywy i wyzwania związane z AI
- Scenariusze "Black Mirror" przestają być science fiction, stając się coraz bliższe rzeczywistości.
- Konieczność sceptycyzmu i ostrożności wobec informacji i mediów generowanych przez AI.
- Coraz lepsza jakość modeli AI powoduje trudności w rozpoznaniu prawdy.
- Wyzwania dotyczące odpowiedzialności, regulacji i etyki w dynamicznie rozwijającej się technologii.
---
Podsumowanie i rekomendacje działań do podjęcia:
- Prawo i regulacje:
- Wprowadzenie i egzekwowanie jasnych zasad dotyczących digitalizacji osobowości i danych po śmierci.
- Regulacje bezpieczeństwa produktów AI, szczególnie autonomicznych systemów bojowych i IoT.
- Zabezpieczenia przed nielegalnym wykorzystywaniem danych prywatnych i deepfake’ami.
- Bezpieczeństwo technologiczne:
- Promowanie CyberSec by Design w urządzeniach IoT.
- Regularne aktualizacje i monitorowanie bezpieczeństwa systemów.
- Implementacja technologii autoryzujących i weryfikujących materiały medialne.
- Edukacja i świadomość użytkowników:
- Szkolenia z rozpoznawania deepfake'ów i manipulacji AI.
- Podnoszenie świadomości w zakresie ochrony prywatności i zarządzania zgodami na przetwarzanie danych.
- Etyka i odpowiedzialność:
- Dyskusje na temat odpowiedzialności prawnej za działania systemów autonomicznych i AI.
- Opracowanie klauzul zgód i zasad transparentności w korzystaniu z usług AI.
- Monitorowanie i kontrola technologii:
- Rozwój narzędzi do kontroli i przeciwdziałania nadużyciom w obszarze AI i autonomicznych systemów.
Następny przystanek "Black Mirror", czyli o mrocznej stronie Sztucznej Inteligencji.
15:55 - 16:35, 27th of May (Tuesday) 2025 / LEADERS STAGE
Sztuczna Inteligencja to rewolucja, która budzi entuzjazm, ale co jeśli jej potencjał zostanie wykorzystany w złych celach? Czy wizje z kultowego serialu "Black Mirror" to jedynie fantastyka, czy niepokojąca zapowiedź przyszłości?
Zapraszamy na debatę, która zanurzy się w mroczniejsze zakamarki możliwości AI. Wizje z "Black Mirror" posłużą jako kontekst dyskusji dla panelistów, którzy przeanalizują potencjalnie niebezpieczne zastosowania Sztucznej Inteligencji – od cyfrowych klonów, przez totalną inwigilację, po autonomiczną broń.
Dyskutować będziemy o tym, na jakim etapie rozwoju jesteśmy w kontekście tych niepokojących technologii, jakie niosą zagrożenia i – co najważniejsze – jak możemy się przed nimi zabezpieczyć. To nie tylko merytoryczna analiza, ale też prowokująca do myślenia rozmowa o przyszłości, której nie powinniśmy się bać... ale której zagrożeń nie możemy ignorować.
Przygotujcie się na debatę, która łączy głęboką wiedzę ekspercką z lekko filmowym, wciągającym klimatem. Czy "Czarna Przyszłość" AI jest bliżej niż myślimy?
Prowadząca: Anna Proch
Paneliści: Bartłomiej Karaban, Damian Maślanka, Krzysztof Bohaczyk, Ariel Zgórski, Magdalenda Raniszewska