Samsung Electronics wykrył, że pracownicy przesłali na jedno z popularnych generatywnych narzędzi sztucznej inteligencji, takich jak ChatGPT, wrażliwy kod źródłowy (z ang. sensitive code). Po tym zdarzeniu firma zakazała pracownikom korzystania z tego rodzaju narzędzi.

Bez wsparcia AI

Południowokoreański koncern w specjalnej notatce powiadomił w poniedziałek pracowników jednego ze swoich największych oddziałów o nowej polityce, podał Bloomberg News. Dane przesyłane do platformy sztucznej inteligencji, w tym Google Bard i Bing, są przechowywane na zewnętrznych serwerach, co utrudnia ich odzyskanie i usunięcie. Kolejnym problemem jest ryzyko ujawnienia danych innym, nieuprawnionym użytkownikom.

65 proc. osób w Samsung przeciw sztucznej inteligencji

Samsung przeprowadził w kwietniu ankietę na temat wewnętrznego wykorzystania narzędzi AI i stwierdził, że ​​65 proc. respondentów uważa, że ​​takie usługi stanowią zagrożenie dla bezpieczeństwa firmy. Wcześniej inżynierowie Samsunga przypadkowo ujawnili wewnętrzny kod źródłowy, przesyłając go do ChatGPT, zgodnie z notatką. Nie jest jasne, czego dotyczyły informacje.

Przedstawiciel Samsunga potwierdził, że w zeszłym tygodniu wysłano notatkę zakazującą korzystania z generatywnych usług sztucznej inteligencji.

Szanse i zagrożenia AI

„Zainteresowanie generatywnymi platformami sztucznej inteligencji, takimi jak ChatGPT, rośnie zarówno wewnętrznie, jak i zewnętrznie” — powiedział pracownikom Samsung. „Chociaż zainteresowanie to koncentruje się na użyteczności i wydajności tych platform, rosną również obawy dotyczące zagrożeń bezpieczeństwa stwarzanych przez generatywną sztuczną inteligencję”.

Samsung to ostatnia duża firma, która wyraziła zaniepokojenie technologią. W lutym, zaledwie kilka miesięcy po tym, jak usługa chatbota OpenAI wywołała burzę zainteresowania tą technologią, niektóre banki z Wall Street , w tym JPMorgan Chase & Co. , Bank of America i Citigroup, zakazały lub ograniczyły jej użycie. Włochy również zabroniły korzystania z ChatGPT ze względu na obawy dotyczące ochrony prywatności, jednak w ostatnich dniach zmieniły swoje stanowisko.

Zakaz używania ChataGPT

Nowe wewnętrzne przepisy Samsunga zabraniają używania generatywnych systemów sztucznej inteligencji na należących do firmy komputerach, tabletach i telefonach, a także w jej sieciach wewnętrznych. Nie mają one wpływu na sprzedawane konsumentom urządzenia firmy, takie jak smartfony z systemem Android i laptopy z systemem Windows.

Koncern poprosił pracowników korzystających z ChatGPT i innych narzędzi na urządzeniach osobistych, aby nie przesyłali żadnych informacji związanych z firmą, ani danych osobowych, które mogłyby ujawnić jej własność intelektualną. Ostrzegł, że złamanie nowych zasad może skutkować zwolnieniem.

Ostrzeżenia i przestrogi

„Prosimy o staranne przestrzeganie naszych wytycznych dotyczących bezpieczeństwa, a niezastosowanie się do nich może skutkować naruszeniem lub narażeniem na ujawnienie informacji firmowych, co skutkuje postępowaniem dyscyplinarnym, włącznie z rozwiązaniem stosunku pracy” – napisał Samsung w notatce.

W międzyczasie firma tworzy własne wewnętrzne narzędzia AI do tłumaczenia i streszczania dokumentów, a także do tworzenia oprogramowania. Pracuje również nad sposobami blokowania przesyłania poufnych informacji firmowych do usług zewnętrznych. W zeszłym miesiącu ChatGPT dodał tryb „incognito”, który pozwala użytkownikom blokować wykorzystywanie czatów do szkolenia modeli AI.

„Dokonujemy przeglądu środków bezpieczeństwa w celu stworzenia bezpiecznego środowiska do bezpiecznego korzystania z generatywnej sztucznej inteligencji w celu zwiększenia produktywności i wydajności pracowników” – czytamy w notatce. „Jednak do czasu przygotowania tych środków tymczasowo ograniczamy korzystanie z generatywnej sztucznej inteligencji”.