Czy można mówić o rewolucji na rynku AI w ostatnich latach?
ikona lupy />
KRZYSZTOF KWIATKOWSKI NEUCA / Materiały prasowe

Nastąpił znaczący rozwój modeli uczenia maszynowego, zoptymalizowano algorytmy wykorzystywane w tych procesach. Ogromne znaczenie ma również wzrost mocy obliczeniowej niezbędnej do przyspieszenia rozwoju AI. To przekłada się na upowszechnianie AI. Dziś już nikogo nie dziwi uzyskiwanie informacji za pomocą chata GPT.

Reklama
ikona lupy />
MICHAŁ TORZEWICZ PRODUCT OWNER VOICEBOT ASSECO (VB), ASSECO POLAND / Materiały prasowe

Idziemy w kierunku kompleksowości rozwiązań. Czyli takich, gdzie wystarczy głośno powiedzieć, by „maszyna” zamówiła ubera, sprawdziła, co mamy w lodówce na śniadanie, i włączyła ekspres, by kawa była gotowa za 20 min. Na razie to pieśń przyszłości, ale są już pojedyncze rozwiązania, które sprawiają, że staje się ona coraz bardziej realna. Różne urządzenia otrzymują dostęp do coraz szerszego kontentu. Komputery są w stanie przetwarzać coraz więcej danych. Do tego AI ma własny głos.

Jaki ma to wpływ na narzędzia takie jak voicebot?

KK: Bardzo duży. Voiceboty oraz chatboty jeszcze niedawno były w stanie nam pomóc na tyle, na ile ich projektanci zasilili je odpowiednimi treściami i ułożyli odpowiednie algorytmy prowadzące do tychże treści.

Jeśli twórca bota nie przewidział pytania, jakie zada mu rozmówca – bot nie mógł z tym nic zrobić. W tej chwili nic nie stoi na przeszkodzie, aby boty oparte na AI zasilać danymi o nieuporządkowanej, na pierwszy rzut oka, strukturze. Dzięki temu ich responsywność jest nieporównywalna z tradycyjnymi formami i przypomina naturalną rozmowę z żywym człowiekiem.

ikona lupy />
ARTUR WICHLIŃSKI DYREKTOR, BANK SPÓŁDZIELCZY WE WSCHOWIE / Materiały prasowe

W pewnych przypadkach tak naprawdę nie wiemy, czy mamy do czynienia z człowiekiem, czy algorytmem, który realizuje określone przez nas funkcje. Voiceboty są coraz szybsze, potrafią coraz dokładniej odpowiadać na stawiane im pytania. Nie bez znaczenia jest jednak tu nasza rola polegająca na odpowiednim wystrojeniu takiego rozwiązania.

MT: Współczesny voicebot jest w stanie odczytać intencje klienta, który się z nim łączy. Odróżnia, czym jest „mieć skierowanie do lekarza” od „chcę uzyskać skierowanie” . Dlatego np. voiceboty medyczne są w stanie lepiej pokierować pacjenta. Myślę, że stajemy się świadkami zastąpienia powtarzalnych prac wykonywanych przez konsultantów voicebotami. Sztuczna inteligencja wykorzystana w branży medycznej jest w stanie zapytać o pesel, spytać, gdzie umówić na wizytę, potwierdzić, czy jest to możliwe, czyli czy mamy skierowanie lub czy go potrzebujemy, i zapisać na wizytę. Dlatego voiceboty we wszystkich sektorach i branżach będą się upowszechniać. Widzimy to już po skali zapytań, jakie mamy w tej sprawie. Głównie od firm, które mierzą się z problem przetworzenia dużej liczby kontaktów, co w praktyce znacznie wydłuża czas oczekiwania na infolinii. Dotyczy to przede wszystkim takich organizacji jak: szpitale, banki, firmy ubezpieczeniowe, operatorzy telekomunikacyjni itp.

Czy to koniec ze złym PR dla tego typu narzędzi? Czy mogą faktycznie pomóc klientowi?

KK: To prawda, liczba sfrustrowanych rozmówców, którzy do znudzenia powtarzali, z czym dzwonią do „klasycznego” bota, była dość duża. Dzisiaj bot oparty na AI zasilony odpowiednimi danymi może obsłużyć niezliczoną ilość problemów, z jakimi dzwoni klient.

Wyobraźmy sobie voicebota udostępnionego przez producenta telewizorów. Wystarczy wskazać mu dokumenty zawierające informacje na temat specyfikacji ich modeli, instrukcje obsługi, informacje dotyczące punktów napraw czy reklamacji. W oparciu o modele AI bot przetworzy te informacje i bez problemu odpowie na pytania dotyczące konfiguracji danego odbiornika krok po kroku, a w przypadku problemów technicznych będzie potrafił ocenić, czy problem wynika z usterki, i wskaże najbliższy serwis lub punkt gwarancyjny.

AW: Biznes widzi korzyści w wykorzystaniu voicebota, i to jest dobry kierunek jego rozwoju. Zaczynamy dotykać kwestii analizy ryzyka i określenia ram, w których organizacja chce wykorzystywać technologię dostarczaną przez AI. Automatyzacja jak najbardziej zaczyna zastępować pracowników w call center, widać to dobitnie w telekomach oraz u dostawców mediów. Mocna stroną tej technologii jest to, że jest ona dostępna 24 godziny przez 7 dni w tygodniu i 365 dni w roku.

MT: Dawniej voiceboty nie były na tak wysokim poziomie technologicznym jak teraz oraz przetwarzały informacje niskiej jakości. Systemy rozumiały mało, były źle zaprojektowane. Dziś, kiedy zadzwonimy na infolinię np. do placówki zdrowia, przedstawimy się, powiemy, co nam się przydarzyło, że teraz boli nas brzuch i chcemy iść do lekarza, voicebot rozpozna, na ile przypadek jest pilny. Kiedyś nie było to możliwe. To również zasługa projektantów, którzy za tym stoją, szerokiej bazy informacji, do której rozwiązania uzyskały dostęp, oraz bardziej zaawansowanego sprzętu, w tym także rozwiązań chmurowych. Znając potrzeby klientów danego sektora, są w stanie zaprojektować narzędzia tak, że będą pomagały, a nie irytowały. Dziś już nawet trudno rozpoznać, czy rozmawia się z botem, czy z człowiekiem.

Jak wygląda dziś integracja voicebota z systemami klienta? Czy to nadal wyzwanie?

KK: W ostatnich latach znacznie poprawiły się narzędzia i technologie do tworzenia integracji, co ułatwia proces, ale wciąż istnieją wyzwania, zwłaszcza w zależności od konkretnych potrzeb klienta. Klient, który planuje integrację voicebota, powinien dokładnie zrozumieć swoje cele i potrzeby, a także zadbać o odpowiednie zasoby i ekspertyzę w dziedzinie botów i integracji systemów. Wyspecjalizowany personel nie musi być, ale w niektórych przypadkach jest niezbędny do połączenia ze sobą systemów, takich jak centralka telefoniczna, bazy danych i komponenty środowiska, na którym pracuje voicebot.

AW: W naszym wypadku mamy do czynienia z dwiema drogami. Pierwsza to zbudowanie botów własnymi siłami, dla systemów, które wytwarzamy przez nasze zespoły IT. Wykorzystujemy voicebota w naszej autorskiej platformie Intranet BS Wschowa. Jest to wsparcie biznesu i pracowników w wykonywaniu codziennych czynności, ale także uwolnienie mocy przerobowych w dziale helpdesku. Drugą opcją jest zastosowanie voicebota w obsłudze klienta w kanałach elektronicznych. Ważna jest tu analiza ryzyka. Z tego powodu, jak na tę chwilę, wykorzystujemy funkcje pasywne w obsłudze klienta bankowości internetowej.

MT: Znacznie mniejsze niż dawniej. Stawiamy na współpracę z klientem od samego początku w całym procesie. Bierzemy pod uwagę jego sugestie, pytamy, z jakimi problemami klienci kontaktują się z ich organizacją, tak by jak najlepiej opracować i wdrożyć narzędzie. To pierwszy etap. Drugim jest danie dostępu do rozwiązania pracownikom, by przekazali swoje uwagi, które uwzględniamy w ramach procesu szkolenia sztucznej inteligencji. W kolejnych etapach uruchamiamy rozwiązanie dla coraz szerszego grona klientów danej organizacji. To podejście sprawia, że jesteśmy w stanie uruchomić voicebota w organizacji w ciągu zaledwie kilku tygodni.

A jak jest z wykorzystaniem generatywnej sztucznej inteligencji? Będzie problem z wykorzystaniem modeli, które nie wskażą źródeł, na których były trenowane.

MT: Może to bowiem narazić organizacje na problemy natury prawnej, czyli odszkodowania, które będą musiały wypłacić, jeśli klient zostanie wprowadzony w błąd. Systemy generatywne powinny na życzenie klienta wykazywać informacje, na których były szkolone, i skąd mają swoją wiedzę. Organizacje, dla których są przygotowywane, muszą więc udostępniać źródła ich pochodzenia. Powinny też zadbać o ich aktualność, tak aby nie wprowadzić klienta w błąd, przedstawiając mu np. nieaktualną ofertę.

KK: Nasze voiceboty funkcjonują w sektorze ochrony zdrowia, gdzie w sposób szczególny kładzie się nacisk na niektóre aspekty, tj. przetwarzanie danych osobowych, tajemnicę lekarską, odpowiedzialność związaną z ochroną zdrowia. Konieczne jest zadbanie o to, aby dane osobowe oraz dane medyczne nie były przetwarzane poza podmiotem do tego uprawnionym. Podobnie jest z odpowiedzialnością w kontekście udzielanych informacji.

Niezbędne są więc odpowiednie zaplanowanie infrastruktury i konfiguracji bota, ograniczanie i eliminacja wszystkich ryzykownych sfer jego funkcjonowania. Ale nie zapominajmy też o monitoringu jego działania i doszkalaniu go.

ikona lupy />
KAMIL HAMELUSZ ADWOKAT KANCELARIA ADWOKACKA KAMIL HAMELUSZ / Materiały prasowe

Jesteśmy uczestnikami kolejnej rewolucji technologicznej. W tym przypadku prawo nie nadąża za rozwojem technologii. Cały świat ma podobny problem. To, co jest budujące, to fakt, że każdy na swój sposób próbuje się zmierzyć z tematem. W Unii Europejskiej wydaje się, że jesteśmy na końcu drogi legislacyjnej związanej z uchwaleniem rozporządzenia ws. sztucznej inteligencji – AI Act. Nie ma jednak co liczyć, że przepisy zaczną obowiązywać natychmiast, bo tak jak w przypadku RODO okres na dostosowanie się do ww regulacji pewnie wyniesie dwa lata. Dodatkowo pomimo tego, że rozporządzenie będzie się stosować bezpośrednio, to kraje członkowskie prawdopodobnie będą uchwalać swoje prawodawstwo w tym zakresie. AI Act jako prawo powszechnie obowiązujące będzie zapewne uzupełniany o kodeksy postępowania. Na przykład kilka dni temu członkowie G7 opublikowali projekt zasad przewodnich dla organizacji opracowujących zaawansowane systemy sztucznej inteligencji, w tym generatywną sztuczną inteligencję i modele podstawowe.

Jakim wyzwaniem jest replika głosów w voicebot? Czy jest dozwolona?

MT: W naszych voicebotach korzystamy tylko ze sztucznie wygenerowanych głosów. Jedynie w sytuacji, kiedy nasz klient oczekuje, że wykorzystamy głos istniejącej osoby, projektujemy takie rozwiązanie. Kopiowanie głosów jest możliwe i relatywnie proste. Może jednak się zdarzyć sytuacja, w której wykorzystanie takiego głosu będzie niemoralne lub niezgodne z prawem, np. próba podszycia się pod kogoś. Dlatego regulacje w tym zakresie powinny mieć miejsce. W jaki sposób? Wydaje się, że rozwiązaniem jest pisemna zgoda osoby na wykorzystanie jej głosu w danym zakresie.

KH: Jeśli chodzi o systemy generatywnej sztucznej inteligencji, AI ACT wprowadza obowiązki związane z używaniem takich systemów. I tak w przypadku systemów wchodzących w interakcje z człowiekiem mają być projektowane i opracowane w taki sposób, aby osoba korzystająca z takiego systemu wiedziała, że jest to system sztucznej inteligencji. Systemy, które generują treści video i dźwiękowe, które przypominają istniejące osoby lub manipulują tymi obrazami, tzw. deepfake’i, będą miały obowiązek informować, że zostały stworzone przez system sztucznej inteligencji.

W mojej ocenie próba regulacji to najlepsze rozwiązanie, pomimo swojej ułomności jako regulacji ogólnej i mającej zastosowanie do każdej gałęzi rynku. W idealnym świecie uchwalone zostałoby kilka rozporządzeń sektorowych dotyczących systemów sztucznej inteligencji, np. w szeroko pojętym sektorze finansowym.

Wszystkie obowiązki informacyjne, o których mowa powyżej, mają fundamentalne znaczenie z punktu widzenia jednostki korzystającej z rozwiązania wykorzystującej algorytmy sztucznej inteligencji, natomiast nowe regulacje nie rozwiązują problemu autorstwa treści, którą dany system wygenerował, a także sposobu używania takiej treści. ©℗

PAO