Dotychczas przepisy nie ingerowały bezpośrednio w sposób tworzenia programów komputerowych, nie regulowały też kwestii dotyczących odpowiedzialności za ich działanie. Przyjmowano milczące założenie, że za skutki korzystania z technologii odpowiada jego użytkownik. Konsekwencją tego założenia było powszechne wyłączanie odpowiedzialności producentów programów w licencjach przez użycie słynnego zwrotu „The Software Is Provided «As Is»”.
Dopiero rozpowszechnienie oprogramowania wykorzystującego techniki sztucznej inteligencji uświadomiło nam, że sposób projektowania programów komputerowych może odzwierciedlać różne założenia, które nie są obojętne z punktu widzenia wartości chronionych przez prawo i wartości etycznych.
Dotychczas skutki implementowania różnych założeń w systemach komputerowych były zwykle niezauważalne lub dotyczyły niewielkiej grupy osób. Tak było np. w przypadku systemu e-KRS wymagającego od osoby składającej wniosek posiadania numeru PESEL, co spowodowało, że spółki z cudzoziemcami w zarządach zostały ograniczone w swoich prawach. Tego typu konsekwencje zaprojektowania technologii w określony sposób są jednak niczym w porównaniu z konsekwencjami stosowania technologii wykorzystujących AI. Powszechnie znane są przypadki, gdy systemy AI używane do rekrutacji dyskryminowały różne grupy społeczne lub odzwierciedlały ukryte stereotypy o niższej wartości rynkowej określonych osób.
Na AI Act trzeba patrzeć zatem nie tylko jak na pierwszy akt prawny regulujący korzystanie z systemów AI. Będzie to także pierwszy akt prawny, który ureguluje sposób tworzenia programów komputerowych w ogóle. Równolegle z AI Act planowana jest dyrektywa o odpowiedzialności za działanie AI, która ma wprowadzić przepisy o roszczeniach odszkodowawczych za działanie takich systemów. Jakie są zatem kluczowe informacje na temat rozporządzenia o AI?
Reklama