OpenAI może mieć poważny problem. Za ChatGPT bierze się Unia Europejska

Ten tekst przeczytasz w 2 minuty
14 kwietnia 2023, 12:36
sztuczna inteligencja AI ChatGPT OpenAI
OpenAI może mieć poważny problem. Za ChatGPT bierze się Unia Europejska/shutterstock
Chodzi m.in. o kwestie przetwarzania danych osobowych czy przechowywania danych wrażliwych. 

ChatGPT szturmem podbił świat. Sztuczna inteligencja potrafi generować odpowiedzi na każde pytanie, a specjaliści z różnych branż zastanawiają się nad wykorzystaniem programu. Zdaniem wielu w pewnych czynnościach może on zastąpić ludzi i spowodować masowe zwolnienia. 

Pierwsi byli Włosi 

Jednak im bardziej ChatGPT staje się popularny, tym więcej wzbudza też kontrowersji. OpenAI ma poważne problemy z przetwarzaniem danych osobowych. Na początku tego miesiąca Włochy zablokowały działanie ChatGPT a jego właściciel ma 20 dni na wyjaśnienie wszystkich wątpliwości. Zdaniem włoskiego Urzędu Ochrony Danych aplikacja nie ma żadnej podstawy prawnej do zbierania i przechowywania danych osobowych użytkowników. Jeśli tłumaczenia nie przekonają urzędników, chatbot pozostanie w tym kraju zablokowany, a firmie grozi grzywna nawet do 4 proc. rocznych globalnych obrotów. Nad podobnymi działaniami zastanawia się jeszcze kilka europejskich krajów, m.in. Niemcy, Irlandia i Francja. 

Ai Sztuczna inteligencja
Sztuczna inteligencja

Unia skoordynuje działania 

To jednak nie wszystko, chatbotem zajmuje się również Europejska Rada Ochrony Danych. Jak czytamy w komunikacje opublikowanym właśnie na stronie rady, EROD postanowiła powołać specjalną grupę zadaniową w celu zacieśnienia współpracy i wymiany informacji na temat ewentualnych działań egzekucyjnych prowadzonych przez organy ochrony danych. Oznacza to, że państwa będą mogły wymieniać się informacjami, a ewentualne decyzje dotyczące ChatGPT mogą zostać podjęte na poziomie całej Unii, a nie poszczególnych państw. 

Dziura w zabezpieczeniach 

W tym kontekście ostatnie problemy ChatGPT, którymi zajmowała się OpenAI wydają się drobnostką. Firma ogłosiła program dla „łowców nagród”. Za odkrycie nieprawidłowości można zgarnąć od 200 do nawet 20 tys. dolarów. Wszystko przez to, że w zeszłym miesiącu w programie wykryto błąd – w oknie chatu użytkownikom wyświetlały się pytania zadawane przez inne osoby. Na szczęście nie można było zidentyfikować pytających, nie wyświetlały się również udzielane odpowiedzi. OpenAI twierdzi, że nie doszło do poważnych naruszeń prywatności, a za usterkę odpowiada błąd w jednym z elementów oprogramowania open-source działającego w ramach ChatGPT.   

ChatGPT
 

Jednak po tym wydarzeniu firma szybko ogłosiła program wykrywania błędów. Nagroda wynosi od 200 do 20 tys. dolarów – w zależności od wagi problemu. Z zastrzeżeniem, że nie będą nagradzani ci, którzy sami błędy generują. Wszystkie szczegóły można znaleźć na platformie Bugcrowd zajmującej się wykrywaniem błędów i lukami w zabezpieczeniach w Internecie.

źródło

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło: forsal.pl
Zapisz się na newsletter
Zapraszamy na newsletter Forsal.pl zawierający najważniejsze i najciekawsze informacje ze świata gospodarki, finansów i bezpieczeństwa.

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj