Modelowanie pogody jest ogromnym wyzwaniem. Jest ona zjawiskiem chaotycznym: drobne zmiany potrafią drastycznie zmienić drogę jej rozwoju. W przeszłości fizycy starali się opisać interakcje cząsteczek i przepływ energii w modelach takich jak GCM – w tym celu rozwijali deterministyczne układy równań różniczkowych cząstkowych. Ale obliczenia są czasochłonne, a im więcej szczegółowych danych, tym więcej czasu potrzeba na ich przetworzenie. Są one także wrażliwe na założone warunki początkowe i explicite spisane formuły (co może też być ich zaletą w przypadku prawidłowych formuł). Nowym podejściem do problemu jest wykorzystanie narzędzi stochastycznych, nauczenie się poprzez narzędzia sztucznej inteligencji wzorców pogody.

Lucy Harris, Andrew McRae, Tim Palmer (Uniwersytet Oksfordzki) i Matthew Chantry, Peter Deuben (Europejskie Centrum Średnioterminowych Przewidywań Pogody) postanowili zająć się problemem ograniczonej szczegółowości, czyli granulacji prognoz. Gdyby spojrzeć na mapy stworzone z przewidywań dotychczasowych modeli, miałyby one niską rozdzielczość. Ze względu na moc koniecznych obliczeń tradycyjne modele mogą korzystać jedynie z uśrednionych wartości parametrów na większych obszarach – mankamentem tego rozwiązania jest to, że wynik również będzie uśredniony. By zniwelować tę niedogodność, otrzymane z tradycyjnego modelu dane badacze potraktowali technikami generatywnych sieci neuronowych (VAE/GAN). Podobne techniki stosowano dotychczas do poprawy rozdzielczości niewyraźnych zdjęć. Dzięki takiemu zabiegowi badacze otrzymywali przewidywania dla coraz to mniejszych obszarów geograficznych. Tym samym udało im się także poprawić przewidywania pogody o kilka procent.

Zespół badaczy firmy Microsoft – Tung Nguyen, Johannes Brandstetter, Ashish Kapoor, Jayesh Gupta i Aditya Grover – zajął się całym procesem przewidywania pogody z wykorzystaniem sieci neuronowych. Ich metoda o nazwie ClimaX pozwala łączyć dane pochodzące z różnych źródeł. Są to m.in. informacje o sezonach, dane regionalne, globalne, krótko-, średnio- i długoterminowe. Model wymaga mniej mocy obliczeniowej, prognozy mają większą szczegółowość i dają dzięki temu lepsze wyniki przewidywań od obecnych modeli.

Treść całego artykułu przeczytasz w Magazynie Dziennika Gazety Prawnej i na e-DGP.

Reklama