Sztuczna inteligencja towarzyszy nam na co dzień – od urządzeń medycznych, przez autonomiczne pojazdy, po zaawansowane technologie wykorzystywane w przemyśle. Jej obecność w naszym życiu staje się coraz bardziej naturalna, jednak pojawia się istotne pytanie: kto ponosi odpowiedzialność, gdy AI wyrządza szkodę?

Czy sztuczna inteligencja posiada osobowość prawną?

Na początku warto zaznaczyć, że sztuczna inteligencja nie posiada osobowości prawnej. Tak twierdzą teoretycy prawa. Oznacza to, że nie jest traktowana jako odrębny podmiot prawny. Zamiast tego odpowiedzialność za jej działanie spoczywa na osobach lub podmiotach, które mają kontrolę nad jej funkcjonowaniem. W kontekście AI pojawia się zasadne pytanie czy za szkody przez nią wyrzadządzone odpowiada zarówno operator front-end, czyli podmiot korzystający z AI i kontrolujący ryzyko związane z jej działaniem (np. szpital, który używa robota chirurgicznego), jak i operator back-end, czyli dostawca technologii i danych (np. producent systemu AI)?

Na przykładzie robota medycznego, jeśli urządzenie popełni błąd podczas operacji, zasadnym jest aby odpowiedzialność byla ponoszona  zarówno przez szpital, jak i producenta technologii AI, w zależności od charakteru i przyczyny awarii.

Uregulowania prawne
Odpowiedź na pytanie, jak wyglądać będzie odpowiedzialność za funkcjonowanie AI na rynku europejskim, przynosi nowa dyrektywa AILD — dyrektywa w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (obecnie w fazie projektu).

Jakie szkody są objęte odpowiedzialnością?

Przepisy dyrektywy odzwierciedlają specyfikę działania systemów sztucznej inteligencji i w konsekwencji obejmują szkody powstałe wskutek:

  • wyniku uzyskanego przez sztuczną inteligencję,
  • nieuzyskania wyniku przez AI, jeżeli można było go oczekiwać.

Dyrektywa AILD – łatwiejsze dochodzenie roszczeń.
Wprowadzenie dyrektywy AILD przez Parlament Europejski i Radę w sprawie odpowiedzialności cywilnej związanej z AI ułatwi dochodzenie roszczeń w przypadkach szkód wyrządzonych przez AI. Ułatwieniem procesowym ma być możliwość nakazania ujawnienia odpowiedniej dokumentacji przez dostawcę lub użytkownika systemu sztucznej inteligencji wysokiego ryzyka będącego potencjalnym pozwanym.

Podsumowanie.
Sztuczna inteligencja to narzędzie, które może przynieść wiele korzyści, ale i wiąże się z ryzykiem. Odpowiedzialność za jej działanie spoczywa na podmiotach, które kontrolują jej funkcjonowanie – zarówno tych, którzy ją wykorzystują, jak i tych, którzy ją projektują i wdrażają.
Warto pamiętać, że w przypadku szkód wyrządzonych przez AI, w ramach nowych przepisów unijnych, proces dochodzenia roszczeń może stać się prostszy, a odpowiedzialność – bardziej przejrzysta.