Jak pisze David Castlevecchi dla magazynu „Nature”, istnieją dwa sposoby wykorzystywania AI. Pierwszy – nazwijmy go „klasycznym” – polega na tym, że programiści, tworząc narzędzie bazujące na sztucznej inteligencji, osadzają w nim uniwersalne reguły logiki i matematyki. Prawdziwie ekscytujący jest jednak drugi sposób. To uczenie maszynowe – z angielskiego „machine learning”. Zapamiętajcie tę nazwę – w najbliższych latach będzie o nim głośno.

Uczenie maszynowe opiera się na sztucznych sieciach neuronowych. W tym przypadku AI zaczyna, nie wiedząc zupełnie nic i sama uczy się reguł, przetwarzając dużą ilość danych. Znacie już doskonale narzędzie, które pracuje w ten sposób – to słynny ChatGPT. Ale nie tylko – metoda ta wykorzystywana jest do tworzenia programów pokonujących ludzi w grach logicznych czy, uwaga, biolodzy! – przewidujących, jak zwinie się dane białko. O ile „klasyczne” AI jest z natury rygorystyczne i do pewnego stopnia przewidywalne, o tyle to oparte o machine learning działa w sposób pozostający dla nas w dużej mierze tajemnicą.

Kres wąskich gardeł zaufania

Reklama

Kilka lat temu Leonardo de Moura, informatyk z Microsoft Research w Redmond (Waszyngton) stworzył system o nazwie Lean. To doskonały przykład „klasycznego” wykorzystania sztucznej inteligencji. Narzędzie wymusza na matematykach rozpisywanie każdego kroku, zapewniając tym samym poprawność obliczeń.

W ten sposób udało się m.in. udowodnić poprawność pewnego znamiennego dowodu matematycznego, w którą wątpił nawet sam jego autor. Naukowcy mogli uprościć ów dowód, a przede wszystkim – Lean pomógł im go zrozumieć. De Moura powiedział, że narzędzie eliminuje z pracy badaczy coś, co nazwał „wąskim gardłem zaufania”. Innymi słowy, Lean potwierdza, że część pracy wykonana przez twojego kolegę czy koleżankę, jest poprawna.

Minerva się myli, ale mówi po angielsku

Jak już zostało wspomniane, naprawdę duże nadzieje naukowcy pokładają w metodach uczenia maszynowego. To właśnie na nich opiera się Minerva – narzędzie stworzone przez zespół byłego fizyka Ethana Dyera, pracującego obecnie w Google w Mountain View (Kalifornia). Minerva opiera się na znacznie bardziej wyrafinowanej wersji mechanizmu autouzupełnienia, znanego z aplikacji do przesyłania wiadomości.

Została wyszkolona na arkuszach matematycznych, dzięki czemu nauczyła się rozpisywać rozwiązania problemów matematycznych krok po kroku. Kieruje się podobną zasadą, co algorytmy, które podpowiadają nam kolejne słowa lub frazy, kiedy piszemy SMS-a czy maila. W przeciwieństwie do Lean, który komunikuje się z użytkownikami za pomocą kodu, Minerva zadaje pytania i formułuje odpowiedzi po angielsku.

Ma ona mnóstwo zalet, ale także pewne ograniczenia. Potrafi przykładowo rozkładać liczby całkowite na liczby pierwsze, ale myli się, gdy poprosimy, żeby zrobiła to z liczbami przekraczającymi pewne wartości. Oznacza to, że na podstawie ww. arkuszy nie udało jej się w pełni „zrozumieć” generalnej reguły. Niemniej zespół pracujący z tym narzędziem jest dobrej myśli i liczy, że dalsze treningi Minervy (za pomocą wiedzy podręcznikowej i dedykowanego programu matematycznego) doprowadzą do sytuacji, w której będzie mogła ona uczestniczyć w burzach mózgów, służących rozwiązaniu konkretnych problemów. Nie tylko w dziedzinie matematyki, ale w każdej, w której informacje trzeba wyciągać ze specjalistycznej literatury.

Czy to już koniec zawodu matematyka?

Problemem, z którym boryka się sztuczna inteligencja (czy raczej ludzie, którzy zarządzają jej pracą) jest nieumiejętność odróżniania rzeczy naprawdę przełomowych i fascynujących od nudnych i pozbawionych znaczenia. Tę barierę należy pokonać, aby AI była w stanie samodzielnie prowadzić badania matematyczne. Jeden z laureatów „Matematycznego Nobla”, czyli Medalu Fieldsa, Timothy Gowers z Collège de France w Paryżu, uważa, że jest wykonalne, aby nauczyć narzędzia AI pewnych obiektywnych kryteriów znaczenia matematycznego. Jeśli uda się tego dokonać, przyszłość zawodu matematyka stanie pod znakiem zapytania.

Erika Abraham z Uniwersytetu RWTH Aachen w Niemczech pozostaje natomiast optymistką. Twierdzi, że pozycja matematyków nie jest zagrożona, ponieważ sztuczna inteligencja jest bystra w takim stopniu, w jakim ją zaprogramujemy. Mówiąc krótko – tytułowa „inteligencja” nie jest immanentną cechą jej samej, ale ludzi, którzy ją stworzyli. Natomiast informatyczka i kognitywistka z Instytutu w Santa Fe w Nowym Meksyku, Melanie Mitchell, wspomina o głównej barierze – AI nie jest w stanie wydobywać abstrakcyjnych pojęć z konkretnych informacji. A to właśnie abstrakcje matematyczne leżą u podstaw tych wszystkich twierdzeń, które sztuczna inteligencja co prawda jest w stanie udowodnić, ale póki co do takiej abstrakcji nie dojdzie samodzielnie.