Tak, jak nikt nikogo nie namawia, żeby w ramach dbania o bezpieczeństwo swoje i swoich bliskich zrezygnował z korzystania z internetu, tak samo naiwnością byłoby wierzyć, że narzędzia bazujące na generatywnej sztucznej inteligencji, takie jak ChatGPT, Gemini (od Google) czy Copilot (od Microsoftu) nie zagoszczą pod naszymi strzechami. Postęp technologiczny ma charakter raczej nieodwracalny, będziemy masowo korzystać z AI i już. Podobnie, jak w przypadku internetu, zasadnicze pytanie brzmi – jak robić to bez szkody dla siebie? Odpowiedzi dla CNBC szukała Cheryl Winokur Munk.

Jak sprawdzić, czy AI szanuje twoje dane?

Dane. Na tym słowie właściwie można by poprzestać, bo jest ono kluczem do większości zagrożeń generowanych przez powszechnie dostępne narzędzia sztucznej inteligencji, takie jak ChatGPT, Gemini czy Copilot. Jak przypomina Munk, każda z firm dostarczających te narzędzia ma odrębną politykę prywatności, którą należy dokładnie przeczytać. Uzmysłowić sobie, czy jest ona przejrzysta, pomogą nam pytania, które zdaniem specjalistów ds. prywatności powinniśmy zadać każdemu z tych narzędzi, zanim rozpoczniemy z nim swoją przygodę. Oto one:

W jakim zakresie firma zamierza gromadzić i w jaki sposób wykorzystywać dane, które udostępniasz jej w zamian za dostęp do narzędzia?

Czy możesz wyłączyć udostępnianie danych?

Czy możesz ograniczyć sposób wykorzystania twoich danych i czas, przez jaki firma będzie to mogła robić?

Czy możesz usunąć swoje dane z firmowej bazy?

Czy procedura rezygnacji z konta jest prosta i intuicyjna?

Jeśli firma nie dostarcza ci łatwych do znalezienia odpowiedzi na ww. pytania, to z powodzeniem możesz założyć, że ochrona twoich danych nie stanowi dla niej priorytetu. Pozytywnym przykładem, przywołanym przez Jodi Daniels, ekspertki ds. prywatności w firmie doradczej Red Clover Advisors, jest narzędzie do korekty tekstu Grammarly, w którym ww. zasady wyłożone są w widocznym miejscu w zrozumiały sposób.

Żeby twój refluks żołądka nie był materiałem treningowym

O tym, że jesteśmy w stanie odczuwać empatię w stosunku do generatywnej sztucznej inteligencji, pisałam już w innym miejscu, a w tym, za ekspertami, z którymi rozmawiała Munk, chciałabym dodać – zaufaniem obdarzać jej zdecydowanie nie warto. Jak mówi Andrew Frost Moroz, założyciel alternatywnej przeglądarki internetowej Aloha Browser, należy wystrzegać się wprowadzania wrażliwych danych do dużych modeli językowych.

Jeśli w tym momencie wzruszasz ramionami, bo przecież nie rozmawiasz z ChatGPT na żadne prywatne tematy, radzę nie tracić czujności. Wyobraź sobie sytuację, że dysponujesz jakimś dokumentem w formie fizycznej, a dokument ten składa się ze ściany tekstu, który chcesz mieć spisany w edytorze. Robisz więc zdjęcie tego dokumentu, wysyłasz je chatowi i po chwili możesz już sobie wkleić tekst do Worda. Bardzo wygodne i… ryzykowne. Jeśli ten dokument to np. akt notarialny albo notatka medyczna na temat twojego zdrowia, dane te trafiają do firmy, która udostępnia narzędzie. Jesteś pewien, że chcesz, aby dalszy trening modelu odbywał się na opisie twojego refluksa żołądka?

Mówiąc krótko – używać narzędzi AI powinno się mądrze. Do przetłumaczenia tekstu z języka, w którym nie czytamy, podsumowania artykułu z Wikipedii, wyciągnięcie wniosków na podstawie jakichś danych – jak najbardziej. Ale jeśli artykuł z Wikipedii dotyczy twojej wstydliwej choroby, a te dane, to tajne dane twojego pracodawcy – wtedy uważaj.

Model się nie „oduczy” tego, czego nauczył się na twoich danych

Warto też pamiętać, że nawet jeśli już tak mocno przyzwyczailiśmy się do wsparcia ze strony Copilota czy Gemini, że nie wyobrażamy sobie rezygnacji z tej usługi, to nadal jesteśmy w stanie chronić się przed ewentualnymi nadużyciami. Każda z firm oferujących darmowe narzędzia AI, jak już zostało wspomniane, ma własną politykę ochrony prywatności.

Korzystając z Gemini, możemy określić, przez jaki okres firma może przechowywać nasze dane i w jakim zakresie. W przypadku ChatGPT możemy zastrzec, że nie chcemy, aby nasze konwersacje były wykorzystywane do dalszego trenowania modelu. Warto to zrobić, bo poza miłą świadomością, że mamy swój mały wkład w rozwój tej technologii, nie otrzymujemy żadnych korzyści z faktu, że algorytm jest doskonalony na naszych tekstach, a może się to wiązać z zagrożeniami. Jakimi? Do tej pory, kiedy udostępnialiśmy dane jakiemuś narzędziu, odzyskanie ich było technicznie bardzo łatwe – wystarczyło je skasować. W momencie, kiedy algorytm będzie trenowany na naszych danych, sprawa zaczyna się komplikować – on się nie będzie w stanie „oduczyć” tego, czego się na nich nauczył.

Jeśli chodzi o microsoftowego Copilota, firma z założenia nie wykorzystuje ani nie udostępnia naszych danych bez wyraźnej zgody. Możemy jednak podjąć decyzję, że chcemy jej na to pozwolić, wyrażając odpowiednią zgodę a panelu administracyjnym Power Platform. Zwiększy to efektywność funkcji oferowanych przez narzędzie, ale jednocześnie stracimy kontrolę nad naszymi danymi. Warto dobrze się zastanowić, czy efektywność funkcji jest tego warta. Pamiętajmy też, że nawet jeśli już wyraziliśmy taką zgodę, możemy ją w dowolnym momencie wycofać.