Uwaga jest wszystkim, czego potrzebujesz – czy AI staje się bardziej uważne od nas?

Data wydarzenia 20/09/2024 13:00
Miasto Wrocław
Miejsce Politechnika Wrocławska, bud. C-13, Wybrzeże Wyspiańskiego 23-25
Sala s. 1.30
Panel tematyczny Nauki inżynieryjno-techniczne
Forma spotkania wykład
Tryb spotkania stacjonarnie
Grupa wiekowa szkoła ponadpodstawowa, dorośli
Opis

Publikacja "Attention Is All You Need" (Ashish Waswani et al., 2017) opisująca mechanizm uwagi jest podstawą do stworzenia sieci neuronowych typu Transformer, na których opierają się najnowocześniejsze rozwiązania Sztucznej Inteligencji (AI), takie jak ChatGPT i wiele innych. Sieci Transformer bazują na mechanizmie wielogłowicowej samouwagi - skupiają uwagę na bardziej istotnych treściach, odróżniają je od mniej istotnych. Pozwala to na rozumienie kontekstowe, odpowiadanie na nasze zapytania i inne procesy rozumienia i generacji treści. Jednocześnie my, ludzie, jesteśmy coraz mniej uważni - skupiamy uwagę na 20 sekundowych filmikach, które przewijamy (popularne dziś shortsy), jesteśmy bombardowani informacjami, konsumujemy szybkie treści, każdego dnia jesteśmy coraz mniej uważni. A skupienie uwagi to bardzo ważna umiejętność, która pozwala nam uczyć się, tworzyć i odkrywać! Czy AI staje się bardziej uważne od nas? Na to pytanie poszukamy odpowiedzi podczas tego wykładu.

Będzie to wykład popularnonaukowy, bazujący na obrazach, analogiach, przykładach z życia. Obecnie wiele słyszymy i czytamy o Sztucznej Inteligencji - o tym jakie niesie ze sobą korzyści i zagrożenia, w czym może nas zastąpić, co już potrafi. Warto więc zastanowić się jak działa i jakie mechanizmy wykorzystuje do uczenia się, wyciągania wniosków, rozumienia naszych zapytań i wymyślania odpowiedzi. Lepsze zrozumienie tego jak właściwie działa Sztuczna Inteligencja może pozwolić nam lepiej odnaleźć się w świecie rozkwitu tej technologii i współpracy z asystentami AI. Warto porozmawiać o tym jak działają modele AI LLM (Large Language Models - Wielkie Modele Językowe), w sposób zrozumiały dla wszystkich, także od podszewki - co "siedzi" w "czarnej skrzynce" określanej przez media jako AI? Jest to właśnie umiejętność skupienia uwagi. Celem wykładu jest pokazanie jak w naszym życiu istotna jest uważność (nie tylko w pracy naukowej) i zauważenie, że to właśnie dzięki matematycznemu odzwierciedleniu ludzkiego mechanizmu skupienia uwagi na istotnych treściach powstały najnowocześniejsze sieci neuronowe i modele AI. Zakładam ok 30 min wykładu, a następnie czas na dyskusję z publicznością. Plan wykładu:
1. Ukazanie mechanizmu uwagi człowieka – skupienie i uważność jako jedno z narzędzi pozyskiwania wiedzy, tworzenia i odkrywania
2. Wyjaśnienie jaka jest różnica między LLM, a AI (modele LLM (np. ChatGPT jest takim modelem) to jeden ze szczególnych przypadków AI, a cała sztuczna inteligencja to grupa wielu różnych modeli - warto to wyjaśnić, pojęcia te są często ze sobą mylone).
3. Wyjaśnienie "odzwierciedlenia ludzkiego mechanizmu skupienia uwagi", stosowanego w sieciach neuronowych typu Transformer (w zarozumiały dla każdego odbiorcy sposób, poprzez analogie, grafiki, koncepcję, proces, bez wchodzenia w matematyczne szczegóły i wzory)
4. Pokazanie przykładów zastosowania i działania modeli LLM (w dostępny dla każdego sposób, np. na podstawie aplikacji online)
5. Refleksja nad rozproszeniem uwagi ludzi w świecie szybkich treści – scrollowanie social mediów, shortsy, migające na stronach internetowych reklamy, powiadomienia (na podstawie raportów, badań, statystyk, naszego codziennego kontaktu z szybkimi treściami)
6. Czas na dyskusję z publicznością - Czy AI staje się bardziej uważne od nas? Jak możemy dbać o nasze skupienie uwagi?

Prowadzący mgr inż. Karolina Pondel-Sycz
Afiliacje Fundacja Marsz dla Nauki
Liczba miejsc 100
Zapisy od 01/09/2024
Zapisy do 12/09/2024
Kontakt w sprawie zapisów karolinapondelsycz@gmail.com
Dostępność dla osób z niepełnosprawnościami Nie
Organizator Fundacja Marsz dla Nauki