15 Maja 2025
Nauka
ChatGPT to chatbot opracowany przez OpenAI. Wykorzystuje sieci neuronowe do rozumienia ludzkiego języka i służy do generowania odpowiedzi na zapytania, które wprowadza użytkownik. Został stworzony na podstawie ogromnych zbiorów danych, aby prowadzić ogólne rozmowy na tematy z różnych obszarów wiedzy. Jego model językowy opracowano za pomocą technik uczenia głębokiego i uczenia przez wzmacnianie z ciągłym wykorzystaniem ludzkiego wsparcia. Zanim został udostępniony internautom 30 listopada 2022 r., testowali go m.in. informatycy, w tym dr Agnieszka Zbrzezny, adiunkt w Katedrze Metod Matematycznych Informatyki UWM.
– Zaczęłam z niego korzystać już w 2020 r. jako pretester. Wówczas jeszcze nikt o nim nie mówił głośno, ale już wtedy robił duże wrażenie – mówi dr Agnieszka Zbrzezny, która śledzi zmiany, jakie następują w ChacieGPT, testuje go, a także wykorzystuje do codziennej pracy. – W tej chwili sprawdzam model 4.5 – „Orion”, który nie jest dostępny dla osób nieposiadających subskrypcji, czyli mówiąc inaczej – osób, które nie płacą za niego. Model ten wykorzystuje bardzo dużo energii elektrycznej i jest nadal w fazie testów.
ChatGPT zaledwie w ciągu pięciu dni od uruchomienia zyskał ponad milion użytkowników. Komunikacja z nim polega na tworzeniu zapytań w języku naturalnym. Jest stale udoskonalany, przez co stał się narzędziem wykorzystywanym w wielu różnych sektorach.
– Tych zmian trochę już było, bo jest on systematycznie aktualizowany i ulepszany. Poprawiane są błędy, wdrażane nowe funkcje, przez co wzrasta jego wydajność i dokładność. Oferuje też wiele rozszerzeń, które zwiększają jego funkcjonalność i możliwość adaptacji narzędzia do potrzeb użytkownika – wyjaśnia dr Agnieszka Zbrzezny i dodaje, że zmienia się też jego przeznaczenie. – Przykładowo poprzedni model „Omni” nie jest typowym modelem językowym. Ma też mechanizmy wnioskowania, czyli możemy go poprosić o udowodnienie twierdzenia. Testowałam go na typowych twierdzeniach, które przekazujemy studentom na informatyce i, co ciekawe, był lepszy niż na przykład książki, które to tłumaczą. Trzeba jednak pamiętać, że bazuje on jedynie na danych, np. artykułach naukowych, które są udostępnione, zatem na twierdzenia czy problemy, które są nierozwiązane – odpowiada, że „nie wiadomo, nie ma dowodu”.
Informatyczka zwraca uwagę także na to, że przy poprzednich wersjach ChataGPT lepiej było być dla niego grzecznym. Wówczas jego odpowiedzi były lepsze.
– Prawdopodobnie związane jest to z tym, że jeżeli coś od kogoś chcemy, np. dowiedzieć się czegoś na forum internetowym, to nie jesteśmy niemili, tylko grzecznie pytamy, aby uzyskać odpowiedź. On bazując na tym, lepiej reagował na miłe sformułowania. W nowym modelu zauważyłam, że nie jest to już konieczne, ale za to lepiej rozpoznaje nasze emocje i jest bardziej empatyczny – podkreśla dr Agnieszka Zbrzezny. Zdaniem naukowczyni taka funkcja mogłaby być wykorzystywana do wspierania ludzi w kryzysie psychicznym. – Na tej bazie moglibyśmy stworzyć aplikacje przydatne człowiekowi, a dobrze wiemy, z jakim kryzysem się spotykamy chociażby w psychiatrii dziecięcej. Widziałam też przypadek, w którym ChatGPT po interpretacji wyników medycznych skierował użytkownika do lekarza po dalszą diagnostykę.
ChatGPT może być używany praktycznie do wszystkiego. Może w kilka chwil stworzyć referat, przygotować statystki z dodanych plików, a nawet pisać wiersze i opowiadać żarty. Dzięki tym funkcjom może być bardzo przydatny w edukacji czy badaniach naukowych.
– Testowałam go także na pracach dyplomowych, których byłam promotorką lub recenzentką i doskonale wiedziałam, jakie są ich słabe i mocne strony. Na tym poziomie inżynierskim i magisterskim robił to naprawdę bardzo dobrze. Inaczej jest w przypadku nowatorskich opracowań czy badań, w których są opisane nowe idee czy podejścia. Tego jeszcze nie było, więc on nie ma skąd tych danych zaczerpnąć – podkreśla dr Agnieszka Zbrzezny. Ona sama lubi go stosować do wyłapywania literówek czy sprawdzania gramatyki.
Chociaż ChatGPT może udowodnić różnego rodzaju twierdzenia, zrobić szybkie obliczenia, to i tak należy go sprawdzać, bo ślepa wiara może nam zaszkodzić.
– ChatGPT dobrze radzi sobie np. z diagnostyką na podstawie opisów tekstowych. Pytanie tylko, czy jesteśmy w stanie zweryfikować informacje, które otrzymujemy. Testowałam go pod tym kątem i pytałam o diagnozę dla pacjentki. Dałam bardzo szeroki kontekst, ale bez danych wrażliwych – to jest ważne, bo nigdy nie wiemy, kto te zebrane informacje o nas wykorzysta. W odpowiedzi otrzymałam prawdziwe artykuły naukowe, które opisywały przypadłości chorej i w jaki sposób mogą się łączyć. Zasugerował też, które badania pacjentka powinna wykonać. Wszystko się zgadzało do momentu, kiedy podał, jakie leki zażywać. I to już może być niebezpieczne, bo wśród nich znalazł się np. popularny lek na potencję dla mężczyzn, którego kobiety nie powinny przyjmować – ostrzega dr Agnieszka Zbrzezny.
Jak przekonuje informatyczka, ChatGPT może też zaszkodzić uczelniom. Spotkała się z licznymi przypadkami prac studenckich pisanych przy użyciu ChataGPT. Co ciekawe, sam ChatGPT uważa to za nieetyczne i zwraca uwagę, że może to prowadzić do plagiatu. Ponadto ChatGPT „mówi” o sobie, że powinno się go wykorzystywać jako narzędzie wspomagające, jednak nie zastąpi myślenia krytycznego.
– Wykorzystanie sztucznej inteligencji, która potrafi pisać nie najgorsze programy, było jednym z powodów pogłębiającego się załamania rynku pracy dla programistów. Studentom zdecydowanie trudniej jest znaleźć praktyki, staże czy pracę, bo muszą wiedzieć o wiele więcej, być lepszymi od ChataGPT. To branża, która bardzo dynamicznie się zmienia. Większość wiedzy, której ja się uczyłam na studiach, np. języków programowania, jest już nieaktualna. Co semestr też muszę zmieniać i poprawiać slajdy, które pokazuję studentom. I w pewnym stopniu pomaga mi w tym ChatGPT, bo przyspiesza tę pracę. Jednak zawsze sprawdzam, czy programy wskazane przez ChataGPT jako dobre dydaktycznie, są bezpieczne. Nie mogę mieć pewności, że nie wygenerował on kodu bazującego na niebezpiecznym kodzie np. umożliwiającym wejście do systemu „tylnymi drzwiami” – dodaje badaczka z UWM.
Dr Agnieszka Zbrzezny porównuje ChatGPT do wędki albo pomocnika i podkreśla, po raz kolejny, że zawsze trzeba go sprawdzać.
– Z pewnością przyspiesza pracę, ale potrafi też się mylić, nawet w prostych zadaniach. Nie poradził sobie chociażby z bardziej skomplikowanymi zadaniami dla studentów II roku informatyki, bo nie były typowo książkowe. Nie jest też absolutnie kreatywny, więc raczej nie powinniśmy się martwić, że zastąpi człowieka – podsumowuje dr Agnieszka Zbrzezny.
Sylwia Zadworna

Dr Agnieszka Zbrzezny jest adiunktką w Katedrze Metod Matematycznych Informatyki UWM. Jej zainteresowania naukowe i badawcze koncentrują się wokół formalnej weryfikacji systemów komputerowych tj. systemów czasu rzeczywistego, systemów wieloagentowych, protokołów kryptograficznych. Ponadto od czasu stażu podoktorskiego na Uniwersytecie Oksfordzkim rozszerzyła swoje zainteresowania o weryfikację modeli matematycznych stosowanych w sztucznej inteligencji.
