BACK

AI w Psychiatrii: Jak zmusić LLM do uzasadniania swoich decyzji jak specjalista?

12:55 - 13:25, 23rd of May (Thursday) 2024/ DATAMASS STAGE

Wszyscy wiemy co robi ChatGPT - generuje tekst. Ale czy wiemy czemu dokładnie ChatGPT napisał “motocykl”, a nie “motor”? Ktoś mądrze powie - to wynik wartości parametrów modelu na którym jest oparty ChatGPT. Okej - ale jakie były te wartości dokładnie? Jak wytłumaczyć użytkownikowi co stoi za decyzją modelu skoro jest to wynik kilku milionów parametrów?

W przypadku ChatGPT niezbyt nas interesują przyczyny decyzji modelu, ale są takie obszary, na przykład psychiatria, gdzie ma to znaczenie. W MindMatch rozwijamy chatbot, który dopasowuje pacjentom terapię na podstawie opisu ich samopoczucia. Używamy do tego LLMów, które są znane ze swojej słabej wytłumaczalności, a pacjent chce wiedzieć czemu zaleciliśmy mu taką, a nie inną terapię. W końcu od tego na jaką terapię pójdzie zależy jego zdrowie psychiczne!

W speechu tłumaczę obrazowo jak działają Transformery (state-of-the-art grupa architektur LLMów). Zwracam uwagę na ich ograniczenia: są słabo wytłumaczalne, nie “myślą” logicznie, nie posiadają specjalistycznej wiedzy. Opowiadam jak w MindMatch obchodzimy każdy z tych problemów oraz tłumaczę inne state-of-the-art rozwiązania. Pokazuję jak nasz chatbot stawia rekomendacje. Na koniec podsumowuję trwające prace nad problemem wytłumaczalności i logiką w LLMach na całym świecie.

LEVEL:
Basic Advanced Expert
TRACK:
AI/ML Data Science
TOPICS:
NLP

Zofia Smolen

MindMatch.pl