W dniu 20 października 2020 r. Parlament Europejski przyjął trzy rezolucje mające znaczenie dla sztucznej inteligencji (AI), zawierające postulaty stworzenia jednolitej regulacji AI na obszarze Unii Europejskiej. Jednocześnie, w dniu 13 stycznia 2021 r. weszła w życie “Polityka dla rozwoju sztucznej inteligencji w Polsce od roku 2020” przyjęta przez Radę Ministrów. 

 

Rozwiązania wykorzystujące AI mają coraz większe znaczenie dla rozwoju gospodarczego oraz społeczeństwa. Opracowane systemy AI umożliwiają obecnie m.in. analizę ok. 2 mln faktur dziennie pozwalającą wykryć oszustwa podatkowe, analizę badań medycznych ułatwiającą lekarzom postawienie właściwej diagnozy czy przewidywanie poziomu zanieczyszczeń powietrza. Projekty te są odpowiedzią na kluczowe problemy społeczno-gospodarcze.

 

Przyjęte rezolucje stanowią wytyczne dla Komisji Europejskiej, która na ich podstawie wkrótce ma zaproponować odpowiedni wniosek regulacyjny. PE w przyjętych rezolucjach wskazuje, że w celu ustanowienia jednakowych standardów w UE regulacje powinny przyjąć formę rozporządzenia. Takie rozporządzenie od momentu jego wejścia w życie wiąże automatycznie wszystkie państwa UE bez konieczności jego odrębnej implementacji. 

 

Rezolucja nr 1 odnosi się do ustanowienia zasad etyki, które zbudować mają zaufanie obywateli Unii do systemów AI. Zgodnie z nimi AI ma służyć człowiekowi, natomiast nie może mieć na celu jego zastąpienia bądź podejmowania za niego decyzji. Regulacje powinny także uwzględniać m.in. zasadę bezpieczeństwa, zakaz dyskryminacji, prawo do zadośćuczynienia oraz ochronę danych osobowych. PE ponadto zauważył problem AI wiążącej się z wysokim ryzykiem dla społeczeństwa (np. samouczące się algorytmy). W ich przypadku niezbędne są regulacje, które zagwarantują odpowiedni nadzór człowieka oraz możliwość zatrzymania działania takiego systemu w dowolnym momencie. 

 

Rezolucja nr 2 odnosi się do zagrożeń, jakie niesie za sobą system AI dla społeczeństwa. W związku z tym PE postuluje wprowadzenie odpowiedzialności odszkodowawczej operatorów uzależnionej od stopnia ryzyka związanego z obsługą AI. Odpowiedzialność powinna zostać nałożona zarówno na operatorów front-end korzystających z systemu AI oraz kontrolujących do pewnego stopnia ryzyko związane z jego obsługą, jak również na operatorów back-end, którzy w sposób ciągły określają cechy systemu, dostarczają dane i podstawowe usługi wsparcia. Operatorzy systemów obarczonych wysokim ryzykiem, stwarzających duże zagrożenie dla człowieka mają zatem ponosić odpowiedzialność na zasadzie ryzyka, natomiast operatorzy systemu o niskim ryzyku poniosą odpowiedzialność na zasadzie winy. Z uwagi na to PE postuluje nałożenie na operatorów obowiązku posiadania ubezpieczenia od odpowiedzialności cywilnej. 

 

Rezolucja nr 3 porusza kwestię praw własności intelektualnej w stosunku do AI. PE wprowadza w tym przedmiocie rozróżnienie na twórczość człowieka wspomaganą przez AI oraz twórczość generowaną samodzielnie przez system AI. 

 

Polityka rozwoju AI w Polsce określa natomiast ramy wsparcia dla obszarów takich jak: społeczeństwo, innowacyjne firmy, nauka, edukacja, współpraca międzynarodowa oraz sektor publiczny. Realizacja polityki zapewni przedsiębiorcom m.in. dostęp do zbiorów danych i programów szkoleń. Rząd tym samym zakłada automatyzację ok. 49% czasu pracy oraz wzrost lepiej płatnych miejsc pracy w Polsce do 2030 r. 

 

Jeżeli interesują Państwa kwestie prawidłowego wykorzystywania systemu AI, możliwości rozwoju pomysłów biznesowych w oparciu o AI, prawidłowe wykorzystywanie rozwiązań z elementami AI bądź zapewnienie odpowiednich warunków współpracy z operatorami dostarczającymi rozwiązania AI – zapraszamy do kontaktu z naszym zespołem ekspertów prawnych.

Kontakt

Logo LinkedIn Logo LinkedIn

Krzysztof Jarosiński

Partner, radca prawny, audytor wiodący ISO 27001