BACK

Operacjonalizacja etyki AI? Jak zbudować w organizacji odpowiedzialność na bazie AI Governance

12:00 - 12:30, 22nd of May (Wednesday) 2024/ DEV TRENDS STAGE

Technologiczny rozwój systemów sztucznej inteligencji nie idzie w parze z prawno-regulacyjnym porządkiem. Brak jasnych wymagań powoduje, że wiele z rozwiązań jest pozbawiona aspektów, które mają znaczenie w naszym zróżnicowanym i nie zerojedynkowym świecie. Wiele organizacji postanowiło pójść w kierunku AI4Good, tworząc własne zasady tworzenia i wykorzystywania systemów sztucznej inteligencji w sposób odpowiedzialny i godny zaufania. Świat jednak przyśpieszył, a głównym motorem zmiany była (jest?) demokratyzacja AI związana z udostępnieniem ChatGPT. Świat ten i technologie, które są dostępne wymagają bardziej uporządkowanego podejścia. Dlatego tak istotna staje się etyka sztucznej inteligencji, która jedynie w niewielkim stopniu wiązana może być z dylematem wagonika. To prawdziwe IT podlane naukami społecznymi i podejściem skoncentrowanym na człowieku. W trakcie wystąpienia dowiecie się dlaczego Responsible i Trustworthy AI nie mogą być tylko sloganem, a także jak podejść do operacjonalizacji ram, które na pierwszy rzut oka wydają się trudne do przełożenia na kod a jednak się da. Spójrzmy na to jak zbudować w organizacji "przekonanie" oraz instrumenty, które pozwolą na prawdziwą operacjonalizację.

LEVEL:
Basic Advanced Expert
TRACK:
AI/ML People & Culture
TOPICS:
AI

Michał Nowakowski

Zackiewicz & Partners oraz GovernedAI