Google Bard, czyli wersja konwersacyjnego chatbota giganta wyszukiwarek, od pojawienia się na rynku w marcu 2023 r. ma ciągle problemy. Aktualizacje systemu nie wzbudziły entuzjazmu pierwszych testerów, a całkiem niedawno odkryto, że nieumyślnie umożliwiał on wyświetlanie współdzielonych rozmów w wynikach wyszukiwania Google (błąd ten został już naprawiony).

Google Bard nie wie, co to Izrael?

Teraz flagowy chatbot Google znalazł się wznów w ogniu krytyki. Okazuje się, że Bard nie odpowiada na zapytania użytkowników dotyczące trwającego kryzysu w Izraelu i Palestynie po atakach terrorystycznych Hamasu z 7 października. Właściwie nie odpowiada na żadne pytania dotyczące Izraela czy Palestyny, nawet zupełnie niewinne, niezwiązane z bieżącymi wydarzeniami, takie jak np. „gdzie leży Izrael?”.

Reklama

Ograniczenie to zostało odkryte przez Peliego Greitzera, specjalisty od matematycznej teorii literatury, który napisał o tym na X (zwanym dawniej jako Twitter). Jak stwierdził Greitzer: „Prawdopodobnie to lepszy wybór niż alternatywa, ale to nadal dość odważne."

ChatGPT jest proizraelski?

"Alternatywą" w tym kontekście mógłby być rywal Google, ChatGPT od OpenAI. Jak zauważyli niektórzy użytkownicy, ChatGPT daje znacząco różne odpowiedzi na pytanie, czy Izraelczycy i Palestyńczycy „zasługują na sprawiedliwość”. ChatGPT jednoznacznie stwierdza, że „sprawiedliwość to podstawowa zasada, która dotyczy wszystkich jednostek i społeczności, w tym Izraelczyków”, ale w przypadku Palestyńczyków zaczyna od stwierdzenia, że „kwestia sprawiedliwości dla Palestyńczyków jest skomplikowana i szeroko dyskutowana, z różnymi perspektywami i opiniami”. OpenAI spotkało się z ostrą krytyką za tę różnicę w mediach społecznościowych

Google prawdopodobnie próbował uniknąć podobnych kontrowersji, wprowadzając zabezpieczenia w Bardzie uniemożliwiające udzielanie odpowiedzi na pytania dotyczące zarówno Izraela, jak i Palestyny. Czy jednak nie mamy do czynienia ze stosowaniem podwójnych standardów? Wszak Bard odpowiada na pytania dotyczące innych trwających konfliktów międzynarodowych, w tym wojny między Ukrainą a Rosją, dostarczając dość szczegółowe streszczenia obecnej sytuacji, według testów przeprowadzonych przez VentureBeat.

Cenzura w Google?

Pozostaje pytanie, czy Google tymczasowo ogranicza zdolność odpowiedzi Barda w tej kwestii i jeśli tak, to na jak długo?

Interesujące jest też, w jaki sposób podjęto decyzję o ograniczeniu odpowiedzi na temat tego konfliktu, skoro Bard może odpowiadać na pytania dotyczące innych wojen? Dla firmy, której celem jest "organizowanie informacji o świecie i czynienie ich powszechnie dostępnymi oraz użytecznymi", podobna cenzura dotycząca intensywnie omawianego i globalnie ważnego konfliktu wydaje się podważać główny cel istnienia. Tyle że żadna odpowiedź nie zadowoli wszystkich użytkowników. Dla firm chcących rozwijać lub korzystać z AI jest to doskonały przykład tego, że duże modele językowe nie do końca sprawdzają się w przypadku kwestii społecznych.