Z jednej strony wiemy, jak je tworzyć, umiemy je uczyć i bardzo ogólnie rozumiemy, jak działają. Z drugiej wciąż nie umiemy przeprowadzić ich inspekcji. Jeżeli podejmują one jakąś decyzję, nie umiemy stwierdzić, dlaczego w konkretnym przypadku to zrobiły. Czy to wynika z danych, jakie pozyskały? Jakiegoś błędu czy innego problemu? Powinniśmy umieć prześledzić ten proces i to właśnie staramy się zrobić w moim projekcie.
Wielokrotnie byłem świadkiem, że ktoś uruchamia aplikację z GPS, dostaje podpowiedzi dotyczące trasy, a i tak mówi, że to niemożliwe, by to była najszybsza droga.
Chcielibyśmy doprowadzić do tego, żeby stworzyć metody, które umieją wyjaśniać ich decyzje. Jeżeli więc GPS znajdzie jakąś najkrótszą drogę, powinien pani wyjaśnić, skąd to wie. Teraz tego nie robi, a pani mu nie ufa. Moim zdaniem wyjaśnialność jest ważna dla budowy zaufania do tych systemów. Na co dzień zajmuję się algorytmami optymalizacyjnymi. To taki rodzaj algorytmów, które przypisują do siebie elementy, np. reklamy w internecie do użytkownika albo pacjentów z kolejki do lekarzy. W takich przypadkach musimy umieć wyjaśnić, dlaczego maszyna podjęła taką decyzję, dlaczego to jest najlepszy wybór. Tylko jeśli będziemy znali przebieg procesu podejmowania decyzji, uznamy algorytm za bezpieczny.
Treść całego wywiadu można przeczytać w środowym wydaniu DGP.