ChatGPT to dobry terapeuta? "W skali od 0 do 10 to zero"
Czy sztuczna inteligencja może być terapeutą? Prof. Łukasz Gawęda z Instytutu Psychologii Polskiej Akademii Nauk tłumaczył w radiowej Trójce, że model językowy tylko udaje. - Dostępne obecnie modele nie mają świadomości - mówił z kolei prof. Piotr Bilski z Instytutu Radioelektroniki i Technik Multimedialnych Politechniki Warszawskiej.
Sztuczna inteligencja coraz śmielej wchodzi w nasze życie.
Foto: Shutterstock
Najważniejsze informacje w skrócie:
- Modele językowe jak ChatGPT zdobywają coraz większą popularność
- Ludzie zwracają się do modeli językowych także z prośbą o pomoc psychologiczną
- Model językowy nie może być terapeutą - mówił Łukasz Gawęda
OGLĄDAJ. Łukasz Gawęda i Piotr Bilski gośćmi Moniki Suszek
Modele językowe jak ChatGPT czy Gemini coraz częściej wspierają ludzi w kryzysie emocjonalnym. AI zasilana dostępną wiedzą psychologiczną zyskała rolę "cyfrowego terapeuty". Jakie niesie to możliwości, a jakie zagrożenia? Czy ChatGPT może być dobrym terapeutą?
Łukasz Gawęda ocenił możliwości AI w tym zakresie, w skali od 0 do 10, na zero. Jak wyjaśnił, maszyna - a w zasadzie model językowy - nie może być osobą, ani też dobrym terapeutą. Może być, zaznaczył, narzędziem, które służy celom terapeutycznym. Wskazał, że model językowy sprawia dobrą iluzję "jeśli chodzi o wypowiedź, którą terapeuta może produkować". Uznał, że ChatGPT jest coraz lepszy w tym udawaniu, ale to nadal tylko udawanie. Podkreślił, że chat nie może zastąpić terapeuty.
Samoświadoma maszyna
- Sztuczna inteligencja to miało być de facto jedno z pierwszych zastosowań komputerów, kiedy powstały te maszyny, które zachwycały ludzi swoimi możliwościami - powiedział Piotr Bilski. Wskazał, że już w latach 50. uważano, że stworzymy samoświadomą maszynę. Jak tłumaczył, dlatego na komputer mówiono kiedyś mózg elektronowy. Podkreślił, że prace nad sztuczną inteligencją to nie jest nowość i trwają od wielu dekad. - Teraz mamy komputery, które dają nam większe możliwości - zauważył. Dodał, że docelowo zmierzamy do samoświadomej maszyny. Zastrzegł, że dostępne obecnie modele nie mają świadomości. Ekspert wskazał, że " bardzo łatwo zbudować maszynę, która świetnie przetwarza język, tylko bardzo złe rzeczy z tego wychodzą". - Trzeba tego strasznie pilnować - mówił.
- Treści erotyczne w ChatGPT. Decyzja OpenAI przeraziła rodziców
- Nietypowa praktyka. Dowódca armii USA pozwala czatowi GPT podejmować decyzje
- Zapytaliśmy AI, gdzie szukałaby w domu pieniędzy, gdyby była złodziejem
Źródło: Trójka
Prowadząca: Monika Suszek
Opracowanie: Filip Ciszewski