Elon Musk zachęcił swoich obserwujących do przesyłania dokumentów medycznych, takich jak skany MRI i zdjęcia rentgenowskie, jego chatbotowi AI zwanemu Grok. Pomimo wielu wątpliwych kwestii, wielu jego fanów właśnie to zrobiło. W niektórych przypadkach nawet publicznie udostępnili swoje wyniki – opisuje portal Futurism.

Dane serwowane AI: Publiczne informacje prywatne

Eksperci ostrzegają przed udostępnianiem takich informacji Grokowi. Wiąże się to z obawami dotyczącymi bezpieczeństwa, ale także podkreśla brak przejrzystości wokół firm Muska. „To bardzo osobiste informacje i nie do końca wiadomo, co Grok zamierza z nimi zrobić” – powiedział The New York Times Bradley Malin, profesor informatyki biomedycznej na Uniwersytecie Vanderbilt.

Chatbot a ochrona prywatności danych

Osoby udostępniające swoje dane medyczne chatbotowi Elona Muska mogą myśleć, że są one chronione przez ustawę o przenośności i odpowiedzialności w ubezpieczeniach zdrowotnych. NYT zauważa jednak, że ochrona zapewniona przez prawo federalne USA, które uniemożliwia lekarzowi udostępnianie prywatnych informacji zdrowotnych, nie wykracza poza zakres medyczny. Po udostępnieniu ich na forum, na przykład w serwisie społecznościowym, przestają podlegać ochronie.

Jest to wyraźny kontrast z sytuacją, gdy firmy technologiczne nawiązują oficjalne partnerstwa ze szpitalami w celu uzyskania danych, powiedział Bradley Malin, które są określone szczegółowymi umowami dotyczącymi sposobu przechowywania, udostępniania i wykorzystywania tych informacji. „Publikowanie danych osobowych w miejscu takim jak Grok to bardziej: >>Juhu! Wrzućmy te dane i miejmy nadzieję, że firma zrobi to, czego od niej oczekuję<<” – powiedział Malin dla NYT.

Niebezpieczne diagnozy, ujawnienie poufnych informacji

Ryzyko związane z niedokładnymi odpowiedziami może również narazić pacjentów na niebezpieczeństwo. Przykładowo Grok błędnie zidentyfikował złamany obojczyk jako zwichnięty bark. Lekarze stwierdzili również, że chatbot nie rozpoznał „podręcznikowego przypadku” gruźlicy, a w innym przypadku pomylił łagodną torbiel z jądrami.

Istnieją również obawy dotyczące sposobu, w jaki same chatboty wykorzystują informacje. Duże modele językowe opierają się na rozmowach, które mają na celu rozwijanie ich możliwości. Oznacza to, że potencjalnie wszystko, co powiesz, może zostać wykorzystane do szkolenia chatbota, więc ryzyko nieumyślnego ujawnienia poufnych informacji nie jest bezpodstawne.

Niewystarczająca polityka prywatności chatbotów

Jednocześnie polityki prywatności X i Grok, dewelopera xAI, są niewystarczające. Ta ostatnia twierdzi na przykład, że nie będzie sprzedawać danych użytkowników stronom trzecim, ale według NYT już to robi z „powiązanymi firmami”.

Jak pisze Futurism, jest wystarczająco dużo powodów, by wątpić w ochronę danych. W końcu sam Musk bezczelnie zachęcał ludzi do przesyłania dokumentacji medycznej, mimo że polityka xAI stwierdza, że „nie ma na celu gromadzenia wrażliwych danych osobowych”, w tym danych zdrowotnych i biometrycznych.

oprac. Marta Mitek