Zdecydowanie tak. Zarówno banki, jak i towarzystwa ubezpieczeniowe, są w ścisłej czołówce firm, które wdrażają rozwiązania AI. Badania i rozwój są dla nich szczególnie ważne. Z raportu, który niedawno opublikował Boston Consulting Group, „For Banks, the AI Reckoning Is Here”, wynika, że co czwarta firma z sektora finansowego wdrożyła takie rozwiązania. Esencją jest zintegrowanie sztucznej inteligencji z kluczowymi procesami. Firmy poszukują wdrożeń, które będą efektywne. Oczekują, że w ślad za inwestycjami w ten obszar pojawią się oszczędności oraz nowe źródła przewag rynkowych.
Nasze doświadczenia można by skwitować zdaniem, że badamy granice tego, co możliwe w zakresie szeroko rozumianej sztucznej inteligencji. I faktycznie, wielką przyszłość widzimy w rozwijaniu agentów AI. Sztuczna inteligencja przestaje być dodatkiem czy ciekawostką, lecz staje się fundamentem nowoczesnej bankowości.
To bardzo znacząca zmiana jakościowa. Chatboty są narzędziami reaktywnymi, a więc odpowiadającymi na pytania i rozwiązującymi proste zadania. Agencji AI to systemy autonomiczne. Potrafią analizować dane z wielu źródeł, niezależnych od siebie. Mogą podejmować decyzje i działać proaktywnie. Przykładem jest możliwość wykrycia przez agenta AI prania brudnych pieniędzy, inicjowania procedury weryfikacyjnej i powiadamiania odpowiednich działów w instytucji finansowej. To zupełnie nowy poziom automatyzacji inteligencji operacyjnej. Reasumując, agenci AI po pierwsze, działają autonomicznie, po drugie, integrują dane, po trzecie, uczą się i adaptują do zmieniających się warunków oraz potrzeb. Po czwarte wreszcie, współpracują z ludźmi.
Nie, choć z pewnymi zastrzeżeniami. Sztuczna inteligencja rzeczywiście przejmuje rutynowe zadania, jak odpowiedzi na zapytania klientów czy analizę dokumentów, ale nie oznacza to masowych zwolnień. Z badań BCG wynika, że 70 proc. instytucji inwestuje w rozwój kompetencji pracowników właśnie w kontekście współpracy i sprawnego wykorzystywania AI. Rola człowieka w pracy zmienia się z wykonawcy na projektanta procesów, analityka czy stratega. AI jest źródłem ewolucji, nie zaś rewolucyjnych zmian na rynku pracy.
To zasadne pytanie i jedno z kluczowych wyzwań stojących przed nami. Agenci AI działają na danych o wysokim stopniu wrażliwości – danych osobowych klientów czy historiach transakcji albo wewnętrznych politykach zgodności. Stąd bezpieczeństwo i zgodność z regulacjami muszą być integralną częścią architektury tych rozwiązań. W BCG Platinium rekomendujemy podejście Secure by Design. Zakłada ono od samego początku projektowanie agentów AI właśnie z myślą o bezpieczeństwie. Elementem takiego podejścia mogą być np. lokalne wdrożenia dużych modeli językowych czy też wykorzystanie architektury Retrieval-Augmented Generation. Chodzi tu o podejście łączące możliwości dużych modeli językowych (LLM) z dostępem do zewnętrznych źródeł wiedzy, takich jak bazy dokumentów, systemy wyszukiwania czy zbiory danych. Zamiast korzystać z publicznych modeli LLM, coraz więcej podmiotów wdraża lokalne, np. w chmurze prywatnej lub na własnej infrastrukturze.
Zapewnia to pełną kontrolę nad danymi klientów oraz spełnia wymogi regulacyjne. Mam na myśli RODO czy wytyczne KNF. Poza tym, rozwiązania te pozwalają dostosować architekturę do specyfiki organizacji oraz jej potrzeb. Daje to gwarancję działania agenta w sposób bezpieczny i zgodny z prawem.
Agenci AI mogą realizować zadania, które wiążą się ze zbieraniem dużej ilości danych. Mogą to być zarówno zadania wewnętrze, jak i te wymagające kontaktu z klientem. Przykładem może być automatyzacja czynności związanych z analizą ryzyka kredytowego. Agent może przeanalizować dokumenty kredytowe przesłane przez klienta i wydać rekomendację, która trafi do akceptacji analityka. Agenci AI będą również odgrywali kluczową rolę w inteligentnej windykacji, gdzie systemy autonomicznie będą negocjowały plany spłat, proponowały restrukturyzacje czy kierowały sprawą zgodnie z profilem dłużnika. Agenci AI mogą wreszcie testować oprogramowanie czy automatyzować proces jego wytwarzania, tj. realizować DevOps/GitOps.
Jesteśmy na takim etapie, kiedy rekomendujemy naszym klientom, aby było to jednak środowisko nadzorowane przez człowieka. Pracownik banku otrzymuje sugestię od agenta AI i podejmuje wiążącą decyzję. Chodzi więc o wspomnianą ewolucję roli człowieka, od wykonawcy, do nadzorującego procesy realizowane przez sztuczną inteligencję.
Mamy ogromny potencjał, w Polsce istnieje wiele dobrych uczelni technicznych edukujących uzdolnionych inżynierów zajmujących się rozwojem sztucznej inteligencji. Rośnie też ekosystem startupów. Jednak pod względem wdrożeń agentów AI na skalę przemysłową, jesteśmy w tyle. W Europie Zachodniej ponad 30 proc. firm już wdrożyło AI na poziomie strategicznym, w Polsce ok. 12 proc. Potrzebujemy więcej odwagi i skłonności do eksperymentowania. Wiele firm nadal podchodzi do innowacji zbyt zachowawczo. Tymczasem takie technologie jak szeroko rozumiana sztuczna inteligencja to przyszłość biznesu i nieodzowne źródło przewag. Potrzeba też lepszej współpracy między sektorem prywatnym i publicznym.