30 Stycznia 2026
Nauka
Panie doktorze, skoro pretekstem do tej rozmowy była pamięć komputerowa, to proszę powiedzieć, jakie są jej rodzaje.
Pamięć komputerowa dzieli się na pamięć operacyjną i pamięć masową. Możemy powiedzieć, że ta pierwsza jest używana przez system do bieżących działań, a druga służy trwałemu zapisowi danych. Dostęp do pamięci masowej jest dużo wolniejszy, ale jest jej dużo więcej i jest trwalsza. Pamięć operacyjna jest tracona po odłączeniu od zasilania. Istnieje oczywiście bardzo wiele metod zapisu pamięci operacyjnej i masowej – to jest coś, co nieustannie się rozwija. Obecnie np. dyski talerzowe zastępowane są dyskami typu flash. W niepamięć odchodzą również technologie zapisu danych na dyskach optycznych, czyli płytach CD, DVD, Blu-ray, co teraz jest zastępowane przez streaming, czyli przesyłanie danych multimedialnych przez sieci komputerowe. Wydaje się, że streaming całkowicie wyprze dyski optyczne.
Kiedy myślimy o Netfliksie albo innej znanej platformie streamingowej, to trudno sobie wyobrazić, jaki ogrom danych się tam znajduje – aż chciałoby się zapytać, jak to wszystko się tam mieści?
To jest bardzo dobre pytanie. Gdybyśmy zastanowili się nad danymi typu obraz i dokonali obliczeń, to wyjdzie, że do nieskompresowanego zapisu sekundy obrazu w Full HD, 25 klatek na sekundę, 3 bajty na piksel, potrzebnych jest ponad 100 megabajtów. A zatem, aby technologie przesyłania multimedialnego w ogóle mogły działać, musiały powstać algorytmy stratnej kompresji. Chodzi o to, aby skompresować dane multimedialne na tego typu platformach tak, by zajmowały jak najmniej miejsca. Stąd też nazwa „stratna kompresja”, bo dopuszczamy, aby doszło do umiarkowanej straty jakości i ogromnego zmniejszenia ilości potrzebnych danych. Warto również podkreślić, że tylko dzięki tej technologii serwisy streamingowe mogą funkcjonować.
Czy ma to jakieś wady?
Tak, oczywiście. Mówiąc w skrócie, kompresja stratna multimediów polega na wycięciu tych informacji, które są mniej widoczne dla zwykłego użytkownika – oczywiście po to, żeby zaoszczędzić dane. Jednak zdarza się, że bardzo mocno ucierpi na tym jakość. Przykładem takiej sytuacji był jeden z odcinków „Gry o tron”, w którym była pokazywana bitwa przeprowadzona w nocy. Z punktu widzenia twórcy był to świetny odcinek, ale z punktu widzenia serwisu streamingowego stanowił koszmar, bo wszystko było bardzo ciemne i algorytmy kompresji bardzo mocno ograniczyły jakość elementów ciemnych – normalnie mało znaczących. Zatem tam, gdzie miała być treść, powstała czarna, jednolita plama. Nie muszę chyba dodawać, że – mówiąc eufemistycznie – widzowie nie byli zadowoleni.
Zdaję sobie sprawę, że to pytanie mogłoby być tematem przynajmniej wykładu, ale spróbuję: jaką drogę pokonaliśmy od słynnego komputera Commodore 64 do współczesnych laptopów?
Współzałożyciel Intela, Gordon Moore, sformułował prawo, które przewiduje, że liczba tranzystorów w procesorze podwaja się mniej więcej co dwa lata, co prowadzi do wykładniczego wzrostu mocy obliczeniowej przy zachowaniu podobnych kosztów. Wspomniany przez panią komputer Commodore 64 miał 64 kilobajty pamięci operacyjnej, a obecnie przeciętny laptop ma 16 lub 32 GB pamięci operacyjnej. Jest to samonapędzający się system, tj. dzięki temu, że mamy coraz szybsze procesory, wygodniej i taniej możemy wytworzyć przetworniki, które są w stanie gęściej zgromadzić półprzewodniki, a skoro tak, to łatwiej zrobić szybszy procesor.
Czy to może się tak napędzać w nieskończoność?
Niestety, istnieją przeszkody fizyczne (w tym wydzielanie ciepła), które coraz mocniej przeszkadzają w rozwoju. Dodatkowo, systemy informatyczne wymagają coraz więcej pamięci i mocniejszych procesorów, bo są coraz bardziej rozbudowane, dzięki czemu twórcy stron i użytkownicy mają dostęp do coraz większej liczby funkcji. Jednak zaczynamy mieć chyba do czynienia z klasycznym przerostem formy nad treścią, bo przynoszą one ograniczone zalety z punktu widzenia odbiorcy, wielkie korzyści z punktu widzenia twórcy, ale pochłaniają zbyt dużo pamięci i czasu procesora. Weźmy na przykład jakiś internetowy serwis informacyjny – dawniej, żeby wczytać taką stronę, potrzeba było pół megabajta, a dzisiaj jest to około kilkunastu megabajtów, więc potrzebny jest dość wydajny procesor, żeby w ogóle dało się z tej strony korzystać. Przyjdzie więc być może moment, w którym trzeba będzie odrzucić dotychczasowe technologie i stworzyć coś nowego, praktycznie od zera.
Obecnie popularne jest przechowywanie danych w chmurze. Jakie są wady i zalety takiego rozwiązania?
Przypomnijmy tylko na początku, że przechowywanie danych w chmurze to usługa polegająca na magazynowaniu plików i informacji na zdalnych serwerach dostępnych przez internet, zamiast na lokalnym dysku komputera czy serwerze. Dane są przesyłane przez internet do serwerowni przez dostawcę usługi. Koszty przechowywania danych są praktycznie niezauważalne w stosunku do tego, ile kosztuje ich przesyłanie. Istnieją rozwiązania chmurowe, które dają użytkownikowi nieograniczoną pojemność, ale z zastrzeżeniem, żeby nie nadwyrężać zbytnio transferu danych. Przechowywanie danych w chmurze z pewnością jest bardzo wygodne, bo użytkownik może uzyskać do nich dostęp z dowolnego urządzenia podłączonego do sieci. Jednak w przypadku braku dostępu do internetu, może stać się to również wadą. Poza tym istnieje ryzyko, że ktoś nieuprawniony uzyska dostęp do tych danych. Istnieją też wątpliwości co do tego, kto tak naprawdę do nich dostęp albo czy przypadkiem nie są one wykorzystywane do tworzenia nowych modeli sztucznej inteligencji. W związku z tym instytucje publiczne, które przechowują dane w chmurach, coraz częściej pytają, gdzie te dane się znajdują. To bardzo niewygodne pytanie dla dostawców tych usług, bo ci starają się je rozproszyć, przez co trudno jest to ustalić. Tymczasem dane wrażliwe powinny być przechowywane w Polsce – tak, żeby nikt nieuprawniony nie miał do nich dostępu.
Do pańskich zainteresowań naukowych należy niskopoziomowa inteligencja obliczeniowa, czyli algorytmy używane u podstaw systemów sztucznej inteligencji. Czy można to w jakiś sposób powiązać z pamięcią?
Jest to wykorzystywane w systemach zajmujących się bazami wiedzy (ang. Knowledge Management Systems – KMS). Są to zaawansowane narzędzia informatyczne służące do gromadzenia, organizowania, udostępniania i zarządzania informacjami w organizacji w postaci użytecznej dla komputerów i zwykle przyjaznej człowiekowi. W tej kwestii pojawiają się dwa kluczowe pojęcia: interpretowalność (żeby sposób działania systemu był czytelny dla człowieka) i wyjaśnialność (żeby system powiedział, na jakiej zasadzie udzielił takiej, a nie innej odpowiedzi). Powoli zostają wprowadzane odpowiednie regulacje prawne, które będą do tego obligowały
Możemy posłużyć się jakimś konkretnym przykładem?
W dzisiejszych czasach systemy komputerowe, a najczęściej algorytmy sztucznej inteligencji, odpowiadają za przyznawanie decyzji kredytowych. I wyobraźmy sobie np., że staramy się o kredyt hipoteczny i dostajemy odpowiedź odmowną, bo nie mamy wiarygodności. I okazuje się, że powodem takiej decyzji jest to, że system natrafił na przelew pod żartobliwym tytułem „okup za…”. Dlatego ta wyjaśnialność staje się coraz bardziej istotna.
Rozmawiała Marta Wiśniewska
zdjęcie główne: www.freepik.com

Dr inż. Bartosz A. Nowak jest adiunktem w Katedrze Metod Matematycznych Informatyki UWM. Do jego zainteresowań naukowych należą: inteligencja obliczeniowa, algorytmy niskopoziomowe, algorytmika oraz sieci komputerowe. W wolnych chwilach drukuje w technologii 3D i gra w gry planszowe.
Tekst ukazał się w grudniowym numerze „Wiadomości Uniwersyteckich", w którym pod lupę wzięliśmy temat pamięci. Wspólnie z ekspertami z naszego Uniwersytetu przyglądamy się jej fenomenowi, chorobom, które jej zagrażają i przypominamy, że nie trzeba wiele, by od zapomnienia ocalić albo by dać pamięci wyraz.
Jak zawsze piszemy też o sukcesach naszej społeczności oraz wydarzeniach, którymi żył Uniwersytet. Wszystkie wydania „Wiadomości Uniwersyteckich" znajdziesz na tej stronie >