Po sieci krąży mem, który insynuuje, że ChatGPT to właśnie taki Pan Spinacz w przebraniu. Jednak nie dajcie się zwieść – model językowy Open AI to dużo bardziej podstępny gracz.

Prawnuk Pana Spinacza

Pan Spinacz z Worda 97 był swego czasu namiastką marzenia o osobistym asystencie. Tylko namiastką – jego moc wspierania nas cennymi radami była ograniczona do tych dotyczących funkcjonalności dokumentu Microsoft Word. I, z tego, co pamiętam, to nazywanie tych rad „cennymi” stanowi pewną przesadę.

Reklama

Na fali sentymentu za dawno minionymi czasami zdarza się nam zatęsknić za rezolutnym spinaczem biurowym, jednak w czasie, kiedy mieliśmy do niego dostęp, cieszył się umiarkowaną atencją. Został domyślnie wyłączony w pakiecie Microsoft Office 2003, a zupełnie zlikwidowany – w wersji z 2007 roku.

Kiedy Microsoft postanowił zainwestować w model językowy od OpenAI, w sieci pojawiło się „śmieszkowanie” odnośnie tego, że Pan Spinacz doczekał się godnego, w końcu do czegoś przydatnego pomocnika. Rzeczywiście – użyteczność ChatGPT jest nieporównywalnie większa niż przydatność wordowskiego asystenta. Choć momentami bywa irytująco bezrozumny, jak jego pradziadek Spinacz. Jaki jest jednak ukryty koszt wspomnianej użyteczności?

Ukryty koszt użyteczności

Dla portalu Bezprawnik.pl Justyna Bieniek przeanalizowała, jakie potencjalne zagrożenia niesie dla danych użytkownika ChatGPT. Wnioski z tej kwerendy są niepokojące.

Jak możemy przeczytać w jej artykule, żeby skorzystać z narzędzia od OpenAI, musimy najpierw zarejestrować konto, czyli także – udostępnić firmie nasze podstawowe dane. Kiedy zadajemy jakieś pytanie ChatowiGPT, nasze pytania zostają powiązane z tymi danymi. A nasza kreatywność w tym zakresie nie zna umiaru. Pytaliście może chatbota o kwestie związane ze zdrowiem waszym lub waszych najbliższych? Na podstawie waszych pytań wie, czym zajmujecie się zawodowo, jakie lubicie seriale i z jakimi problemami, od technicznych po psychologiczne, borykacie się na co dzień? Gdzie mieszkacie, jaki rozmiar ubrań nosicie, czym się odżywiacie?

Bieniek pisze, że podczas rejestracji akceptujemy regulamin, zgodnie z którym zgadzamy się, aby OpenAI wykorzystywała te dane do swoich celów, a nawet – sprzedawała podmiotom trzecim. Nie mamy nawet możliwości sprawdzić, w posiadanie jakich naszych danych weszła.

To mogą (nie) być twoje dane

Całkiem niedawno rozeszła się wieść (podaję za Cyberdefence24.pl), że OpenAI zmienia sposób zarządzania danymi. Od teraz będzie można wyłączyć historię rozmów z ChatGPT. Nie będą się one wtedy pojawiać na bocznym pasku i nie będą używane do trenowania modelu. Firma zastrzegła jednak, że „niezapisane” rozmowy będzie przechowywać przez 30 dni, w celu monitorowania nadużyć. Jeszcze lepiej mają być chronieni płatni subskrybenci. Użytkownicy ChatGPT Business – taka usługa ma się pojawić w ciągu najbliższych miesięcy – zyskają wgląd w przechowywane przez firmę dane. Dzięki funkcji eksportu danych będą mogli otrzymać m.in. pliki ze swoimi rozmowami z chatbotem.

Zapewne użytkownicy, którzy zapisów rozmów nie wyłączą, będą i tak budować dla OpenAI wystarczająco obszerną i dającą szereg możliwości bazę danych. Teraz jednak mamy wybór: to mogą nie być akurat nasze dane.