Samsung Electronics wykrył, że pracownicy przesłali na jedno z popularnych generatywnych narzędzi sztucznej inteligencji, takich jak ChatGPT, wrażliwy kod źródłowy (z ang. sensitive code). Po tym zdarzeniu firma zakazała pracownikom korzystania z tego rodzaju narzędzi.
Bez wsparcia AI
Południowokoreański koncern w specjalnej notatce powiadomił w poniedziałek pracowników jednego ze swoich największych oddziałów o nowej polityce, podał Bloomberg News. Dane przesyłane do platformy sztucznej inteligencji, w tym Google Bard i Bing, są przechowywane na zewnętrznych serwerach, co utrudnia ich odzyskanie i usunięcie. Kolejnym problemem jest ryzyko ujawnienia danych innym, nieuprawnionym użytkownikom.
65 proc. osób w Samsung przeciw sztucznej inteligencji
Samsung przeprowadził w kwietniu ankietę na temat wewnętrznego wykorzystania narzędzi AI i stwierdził, że 65 proc. respondentów uważa, że takie usługi stanowią zagrożenie dla bezpieczeństwa firmy. Wcześniej inżynierowie Samsunga przypadkowo ujawnili wewnętrzny kod źródłowy, przesyłając go do ChatGPT, zgodnie z notatką. Nie jest jasne, czego dotyczyły informacje.
Przedstawiciel Samsunga potwierdził, że w zeszłym tygodniu wysłano notatkę zakazującą korzystania z generatywnych usług sztucznej inteligencji.
Szanse i zagrożenia AI
„Zainteresowanie generatywnymi platformami sztucznej inteligencji, takimi jak ChatGPT, rośnie zarówno wewnętrznie, jak i zewnętrznie” — powiedział pracownikom Samsung. „Chociaż zainteresowanie to koncentruje się na użyteczności i wydajności tych platform, rosną również obawy dotyczące zagrożeń bezpieczeństwa stwarzanych przez generatywną sztuczną inteligencję”.
Samsung to ostatnia duża firma, która wyraziła zaniepokojenie technologią. W lutym, zaledwie kilka miesięcy po tym, jak usługa chatbota OpenAI wywołała burzę zainteresowania tą technologią, niektóre banki z Wall Street , w tym JPMorgan Chase & Co. , Bank of America i Citigroup, zakazały lub ograniczyły jej użycie. Włochy również zabroniły korzystania z ChatGPT ze względu na obawy dotyczące ochrony prywatności, jednak w ostatnich dniach zmieniły swoje stanowisko.
Zakaz używania ChataGPT
Nowe wewnętrzne przepisy Samsunga zabraniają używania generatywnych systemów sztucznej inteligencji na należących do firmy komputerach, tabletach i telefonach, a także w jej sieciach wewnętrznych. Nie mają one wpływu na sprzedawane konsumentom urządzenia firmy, takie jak smartfony z systemem Android i laptopy z systemem Windows.
Koncern poprosił pracowników korzystających z ChatGPT i innych narzędzi na urządzeniach osobistych, aby nie przesyłali żadnych informacji związanych z firmą, ani danych osobowych, które mogłyby ujawnić jej własność intelektualną. Ostrzegł, że złamanie nowych zasad może skutkować zwolnieniem.
Ostrzeżenia i przestrogi
„Prosimy o staranne przestrzeganie naszych wytycznych dotyczących bezpieczeństwa, a niezastosowanie się do nich może skutkować naruszeniem lub narażeniem na ujawnienie informacji firmowych, co skutkuje postępowaniem dyscyplinarnym, włącznie z rozwiązaniem stosunku pracy” – napisał Samsung w notatce.
W międzyczasie firma tworzy własne wewnętrzne narzędzia AI do tłumaczenia i streszczania dokumentów, a także do tworzenia oprogramowania. Pracuje również nad sposobami blokowania przesyłania poufnych informacji firmowych do usług zewnętrznych. W zeszłym miesiącu ChatGPT dodał tryb „incognito”, który pozwala użytkownikom blokować wykorzystywanie czatów do szkolenia modeli AI.
„Dokonujemy przeglądu środków bezpieczeństwa w celu stworzenia bezpiecznego środowiska do bezpiecznego korzystania z generatywnej sztucznej inteligencji w celu zwiększenia produktywności i wydajności pracowników” – czytamy w notatce. „Jednak do czasu przygotowania tych środków tymczasowo ograniczamy korzystanie z generatywnej sztucznej inteligencji”.