ChatGPT szturmem podbił świat. Sztuczna inteligencja potrafi generować odpowiedzi na każde pytanie, a specjaliści z różnych branż zastanawiają się nad wykorzystaniem programu. Zdaniem wielu w pewnych czynnościach może on zastąpić ludzi i spowodować masowe zwolnienia.

Pierwsi byli Włosi

Reklama

Jednak im bardziej ChatGPT staje się popularny, tym więcej wzbudza też kontrowersji. OpenAI ma poważne problemy z przetwarzaniem danych osobowych. Na początku tego miesiąca Włochy zablokowały działanie ChatGPT a jego właściciel ma 20 dni na wyjaśnienie wszystkich wątpliwości. Zdaniem włoskiego Urzędu Ochrony Danych aplikacja nie ma żadnej podstawy prawnej do zbierania i przechowywania danych osobowych użytkowników. Jeśli tłumaczenia nie przekonają urzędników, chatbot pozostanie w tym kraju zablokowany, a firmie grozi grzywna nawet do 4 proc. rocznych globalnych obrotów. Nad podobnymi działaniami zastanawia się jeszcze kilka europejskich krajów, m.in. Niemcy, Irlandia i Francja.

Sztuczna inteligencja / ShutterStock

Unia skoordynuje działania

To jednak nie wszystko, chatbotem zajmuje się również Europejska Rada Ochrony Danych. Jak czytamy w komunikacje opublikowanym właśnie na stronie rady, EROD postanowiła powołać specjalną grupę zadaniową w celu zacieśnienia współpracy i wymiany informacji na temat ewentualnych działań egzekucyjnych prowadzonych przez organy ochrony danych. Oznacza to, że państwa będą mogły wymieniać się informacjami, a ewentualne decyzje dotyczące ChatGPT mogą zostać podjęte na poziomie całej Unii, a nie poszczególnych państw.

Dziura w zabezpieczeniach

W tym kontekście ostatnie problemy ChatGPT, którymi zajmowała się OpenAI wydają się drobnostką. Firma ogłosiła program dla „łowców nagród”. Za odkrycie nieprawidłowości można zgarnąć od 200 do nawet 20 tys. dolarów. Wszystko przez to, że w zeszłym miesiącu w programie wykryto błąd – w oknie chatu użytkownikom wyświetlały się pytania zadawane przez inne osoby. Na szczęście nie można było zidentyfikować pytających, nie wyświetlały się również udzielane odpowiedzi. OpenAI twierdzi, że nie doszło do poważnych naruszeń prywatności, a za usterkę odpowiada błąd w jednym z elementów oprogramowania open-source działającego w ramach ChatGPT.

ShutterStock

Jednak po tym wydarzeniu firma szybko ogłosiła program wykrywania błędów. Nagroda wynosi od 200 do 20 tys. dolarów – w zależności od wagi problemu. Z zastrzeżeniem, że nie będą nagradzani ci, którzy sami błędy generują. Wszystkie szczegóły można znaleźć na platformie Bugcrowd zajmującej się wykrywaniem błędów i lukami w zabezpieczeniach w Internecie.

źródło