Odpowiedzialność za błędy sztucznej inteligencji: kto faktycznie ponosi ryzyko?
- Kto ponosi odpowiedzialność, gdy AI popełni błąd?
- Regulacje prawne i odpowiedzialność
- Orzecznictwo
- Co powinny zrobić firmy?
- Wnioski
- Contact a lawyer for further information
Sztuczna inteligencja (AI) nie tylko analizuje dane – podejmuje również decyzje, które bezpośrednio wpływają na kluczowe procesy biznesowe: od rekrutacji, przez udzielanie kredytów, po działania marketingowe. Błędy AI mogą prowadzić do dyskryminacji, strat finansowych, naruszenia praw konsumentów oraz ryzyk reputacyjnych. Pytanie „kto ponosi odpowiedzialność za takie błędy?" stało się dla firm jednym z kluczowych zagadnień prawnych.
Kto ponosi odpowiedzialność, gdy AI popełni błąd?
Co do zasady odpowiedzialność spoczywa na firmie świadczącej usługę końcową, a nie na twórcy modelu czy właścicielu infrastruktury serwerowej. Jeżeli przedsiębiorstwo zintegrowało rozwiązanie AI na przykład w procesie ustalania cen lub w czatbocie obsługi klienta, to właśnie ono odpowiada wobec użytkownika za prawidłowość wyniku.
Deweloperzy odpowiadają za błędy w kodzie oraz naruszenia wymogów jakościowych systemu. Jeżeli błąd był spowodowany awarią techniczną, roszczenia mogą być kierowane bezpośrednio wobec dewelopera.
Użytkownicy odpowiadają za niewłaściwe wykorzystanie AI, ignorowanie ograniczeń systemu oraz brak nadzoru. Przykładowo: pracownik użył czatbota do analizy danych osobowych z naruszeniem wewnętrznych zasad, co doprowadziło do wycieku danych – odpowiedzialność została przypisana pracownikowi, a nie deweloperom systemu.
Regulacje prawne i odpowiedzialność
Przepisy nie określiły jeszcze w pełni szczegółowych zasad odpowiedzialności, jednak nowe regulacje – w tym EU AI Act – wyznaczają obowiązki operatorów systemów wysokiego ryzyka. Należą do nich między innymi:
- korzystanie z systemu wyłącznie zgodnie z instrukcjami dostawcy,
- zapewnienie kompetentnego nadzoru człowieka nad systemem,
- zapewnienie jakości i aktualności danych wejściowych,
- monitorowanie działania systemu oraz jego zatrzymanie w przypadku wystąpienia istotnych ryzyk,
- niezwłoczne informowanie dostawcy i organów regulacyjnych o awariach,
- przechowywanie szczegółowych zapisów działania systemu przez co najmniej sześć miesięcy.
Naruszenie tych wymogów może być uznane nie tylko za niezgodność z regulacjami, lecz także za bezpośredni dowód winy. W przypadku incydentu znacząco zwiększa to odpowiedzialność przedsiębiorstwa, które wdrożyło AI bez należytego nadzoru.
Orzecznictwo
- Moffatt v. Air Canada
Klient skorzystał z czatbota linii lotniczej, aby uzyskać informacje o taryfie bereavement fare. Czatbot poinformował, że zwrot kosztów można uzyskać po zakończeniu podróży. Klient kupił bilety, odbył podróż i złożył wniosek o zwrot – który został odrzucony. Sprawa trafiła do sądu. Air Canada próbowała przerzucić odpowiedzialność na „czatbota", jednak sąd uznał, że czatbot jest częścią strony internetowej firmy i to firma odpowiada za wszelkie informacje w ten sposób przekazywane. Air Canada została zobowiązana do zwrotu różnicy w cenie biletów.
- Walters v. OpenAI
Prezenter radiowy wytoczył powództwo przeciwko OpenAI, twierdząc, że ChatGPT przypisał mu udział w nadużyciach finansowych w organizacji Second Amendment Foundation. Sąd uznał, że algorytm ostrzega użytkowników o możliwych nieścisłościach, a jego odpowiedzi nie mogą być traktowane jako w pełni wiarygodne. Powód nie zdołał wykazać zaniedbania ani złej woli ze strony OpenAI, w związku z czym powództwo zostało oddalone.
Powyższe orzeczenia pokazują, że stosowanie ostrzeżeń, kontrola jakości oraz informowanie użytkowników mogą chronić deweloperów w sporach sądowych. Jednocześnie firmy publikujące odpowiedzi generowane przez AI nadal ponoszą ryzyko, jeśli nie zapewnią odpowiedniego nadzoru nad ich wykorzystaniem.
Co powinny zrobić firmy?
- Opracować wewnętrzną politykę korzystania z AI – określić dopuszczalne scenariusze użycia i zakazać podejmowania autonomicznych decyzji bez nadzoru człowieka.
- Wyznaczyć osoby odpowiedzialne za zarządzanie AI oraz kontrolę jakości systemu.
- Regularnie przeprowadzać testy dokładności i bezstronności.
- Zapewnić przejrzystość – oznaczać treści generowane przez AI i informować użytkowników o ich pochodzeniu.
- Uregulować podział odpowiedzialności w umowach z dostawcami i integratorami.
- Regularnie przeprowadzać audyty czatbotów obsługi klienta, skonfigurować filtry przekierowujące rozmowę do pracownika przy złożonych lub krytycznych zapytaniach oraz weryfikować poprawność udzielanych odpowiedzi.
Wnioski
Odpowiedzialność za błędy AI ostatecznie ponoszą ludzie i organizacje, które tę technologię stworzyły, wdrożyły i wykorzystują. Aby ograniczyć ryzyko, przedsiębiorstwa powinny zbudować spójny system zarządzania AI – obejmujący polityki, procedury oraz mechanizmy kontraktowe. AI nie zwalnia z odpowiedzialności; przeciwnie – wymaga jasno określonego nadzoru, przejrzystości i skutecznego zarządzania ryzykiem.
Chroń swój biznes przed ryzykami związanymi z AI – skontaktuj się z REVERA
Błędy AI są nieuniknione, ale ryzyko dla firmy można zminimalizować, wdrażając przejrzyste procesy, kontrolę jakości i jasny podział odpowiedzialności. Eksperci REVERA pomogą:
- opracować wewnętrzną politykę korzystania z AI,
- uregulować odpowiedzialność w umowach z dostawcami i integratorami,
- zapewnić zgodność z nowymi wymogami prawnymi, w tym z EU AI Act.
Nie zostawiaj ryzyka przypadkowi – skontaktuj się z REVERA i zabezpiecz swój biznes przed prawnymi i reputacyjnymi zagrożeniami związanymi ze stosowaniem AI.
Authors: Daria Gordey, Artem Handriko.
Contact a lawyer for further information
Contact a lawyer