Algorytm a dziennikarze– wywiad z dr. hab. inż. Piotrem Szczuko
4 min read11 kwietnia w ramach konferencji Mediaucze(L)ni odbyły się warsztaty poświęcone sztucznej inteligencji. Generatywna sztuczna inteligencja –szanse i wyzwania wchodziły w skład bloku Zawody przyszłości w równowadze z nowymi technologiami. Uczestnicy warsztatów poznali szczegółowy mechanizm działania takich progarmów jak czat GPD. Zrozumieli na jakiej zasadzie działa algorytm. Po warsztatach miałam przyjemność przeprowadzić wywiad z z doktorem habilitowanym, inżynierem Piotrem Szczuko .
Panie Profesorze, wspominał Pan o tym, że już powstały specjalne instrukcje, jak optymalnie obsługiwać czat GPT. Czy uważa Pan, że istnieje potrzeba przekazywania takiej wiedzy ludziom? Jak wykorzystywać te algorytmy tak, żeby nam służyły jak najlepiej?
Jestem zdecydowanie za tym, żeby jak najwięcej informować o tym, jak działa czat GPT. Dopiero jeżeli znam choć trochę zasady jego działania, to uświadamiam sobie, jak bardzo niedoskonałe jest to narzędzie. Wciąż jesteśmy zaskoczeni możliwościami sztucznej inteligencji. Imponujące jest to, co ten algorytm generuje. Niestety w czacie pojawiają się tak zwane halucynacje. Jeżeli program ma brak wiedzy na jakiś temat to bardzo przekonująco pisze nieprawdę, zmyśla różne informacje. Jeżeli mamy świadomość tego, że on nie jest idealny to wtedy możemy odpowiednio jego działanie przepuścić przez filtr własnej wiedzy i poprawić potencjalne błędy. Dodatkowo jest jeszcze pisanie promptów, czyli poleceń dla czatu GPT. Ta czynność pozwala nam doprecyzować to, czego potrzebujemy. Jeżeli napiszemy ogólne polecenie, to bardzo często rezultaty są generyczne, napisane lakonicznym językiem. Inaczej jest, jeżeli takiemu czatowi napiszemy w jakiej roli on ma wystąpić.
Jakie mogą być role?
Możemy mu powiedzieć, żeby wcielił się w rolę nauczyciela w szkole podstawowej. Następnie możemy dać mu wytyczne zadania. Przykładowo, program ma wyjaśnić uczniom w szkole podstawowej zasady mechaniki kwantowej. Na koniec napiszemy w jakiej formie ma przedstawić żądane informacje. Z takimi wytycznymi algorytm wykonuje bardzo dobrze swoją pracę i dostarcza nam całkiem użytecznych wyników.
Czy w takim razie środowisko dziennikarskie jednak powinno współpracować z AI przy pracy z tekstem, czy raczej powinniśmy to traktować jako konkurencję?
Uważam, że powinniśmy wykorzystywać to jako narzędzie. Może ono służyć do poprawy stylu wcześniej napisanego tekstu albo do pracy koncepcyjnej, powiedzmy połączenia różnych faktów w jakiś spójny materiał. Zawsze jednak należy sprawdzić wszystkie fakty, które tam się pojawiły. Jak już wspomniałem, algorytm potrafi halucynować, czyli zmyślać i pisać w przekonujący sposób różne informacje, niekoniecznie prawdziwe. Dziennikarze mogą wspomagać się tym narzędziem do tego, żeby zbudować jakąś interesującą historię, trzeba tylko weryfikować wszystkie fakty.
Jeszcze mam pytanie dotyczące deepfake’ów i poglądów. Za algorytmami jednak stoją ludzie o określonych poglądach. Czy ten fakt oraz to, że teraz będzie można coraz skuteczniej szantażować osoby publiczne nie wpłynie to na wolność słowa? A jak tak, to jak moglibyśmy się przed tym bronić?
Są różne rodzaje algorytmów, które możemy użyć do wykonania deepfake’a. To może być oprogramowanie, które samo napisze nieprawdziwy tekst wypowiedzi lub które będzie tworzyło wideo mówiącej osoby. Może być to też program, który głosem danej osoby odczyta jakiś komunikat. Traktowałbym to mimo wszystko jako narzędzia i odpowiedzialność za to, co wyprodukowały, spoczywa tylko i wyłącznie po stronie użytkownika. Do tej pory, kiedy nie było takich programów i tak manipulacje były obecne. Mieliśmy fotomontaż robiony w Photoshopie, który też produkował dezinformację. Istniały również nieprawdziwe informacje pisane w postach na mediach społecznościowych albo w komentarzach. To zjawisko było z nami od bardzo dawna, można powiedzieć, że od zawsze. Teraz wykonanie takiej przekonującej dezinformacji jest po prostu prostsze i dostępne niemalże dla każdego. Rolą dziennikarzy i mediów jest to, żeby oznaczać weryfikację, że informacja jest sprawdzona i potwierdzona. Możliwe, że przez deepfake część użytkowników odwróci się od mediów społecznościowych, w których bardzo łatwo propagować fake newsy. Wtedy nastąpiłby powrót w kierunku mediów profesjonalnych, gdzie publikowane materiały będą rzeczywiście sprawdzone i jakościowe. Nie sądzę, żeby algorytmy stały się ogranicznikiem wolności słowa, ponieważ w Internecie trudno o cenzurę. Podsumowując, to wszystko jeszcze bardziej zwiększy prestiż mediów zawodowych.
Dr hab. inż. Piotr Szczuko– naukowiec, dydaktyk w Katedrze Systemów Multimedialnych w Politechnice Gdańskiej. Od 2007 roku jest głównym wykonawcą krajowych i międzynarodowych projektów badawczo-rozwojowych takich jak INDECT, ADDPRIV, COPAMS. Współautor nagradzanych rozwiązań System elektronicznych pomocy dla osób po laryngektomii, System zdalnej obserwacji akustyczno-wizyjnej. Działalność dydaktyczna dr. hab. inż Szczuko obejmuje prowadzenie przedmiotów m.in. Inteligentne Systemy Decyzyjne, Sztuczna Inteligencja w Medycynie, Przetwarzanie Dźwięków i Obrazów, Telemonitoring Obiektów i Aglomeracji.