AI BLOG

2024-11-21

Kto ponosi odpowiedzialność, gdy chatbot udzieli błędnej odpowiedzi? 

Coraz więcej firm korzysta z wirtualnych asystentów, aby ułatwić korzystanie ze stron internetowych i zwiększyć zaangażowanie klientów. Chociaż jest to pod wieloma względami korzystne, nie wolno zapominać o prawnych aspektach dotyczących tego typu rozwiązań.

Wykorzystanie chatbotów w zawieraniu umów online, w połączeniu z dobrze już znanym zjawiskiem halucynacji sztucznej inteligencji (SI), tj. nieprawidłowych lub wprowadzających w błąd wyników uzyskanych dzięki SI, zaowocowało nowymi wyzwaniami, zwłaszcza w dziedzinie prawa umów. Chodzi m.in. o ustalenie odpowiedzialności w przypadku, gdy klient zawiera umowę na podstawie błędnych informacji dostarczonych przez chatbota na stronie internetowej firmy.

Przełomowe rozstrzygnięcie 

Niedawna decyzja w sprawie przeciwko Air Canada została uznana za kamień milowy w rozwijającej się dziedzinie interakcji cyfrowych H2SI i odpowiedzialności różnych podmiotów w ramach tych interakcji. Sprawa dotyczyła tego, czy firma może zostać pociągnięta do odpowiedzialności za wprowadzające w błąd informacje dostarczone przez automatycznego chatbota na jej stronie internetowej. 

W listopadzie 2022 r. pan Moffatt, mieszkający w Vancouver, szukał opcji podróży, aby wziąć udział w pogrzebie krewnego w Toronto. Zapytał o politykę żałobną Air Canada, która umożliwia pasażerom podróżującym z powodu śmierci najbliższego członka rodziny skorzystanie z obniżonych cen. Chatbot Air Canada poinformował go, że może zarezerwować lot, a następnie złożyć wniosek o zwrot kosztów w ciągu 90 dni od zakupu. Pan Moffatt, opierając się na wskazówkach dostarczonych przez chatbota, zarezerwował loty i złożył wniosek o częściowy zwrot kosztów po powrocie do Vancouver. Air Canada odmówiła przetworzenia wniosku o zwrot kosztów, ponieważ jej polityka żałobna nie zezwala na składanie wniosków po zakończeniu podróży.

Air Canada argumentowała, że nie może być pociągnięta do odpowiedzialności za wprowadzające w błąd informacje chatbota, uznając go za odrębny byt prawny. To wyjaśnienie jest, przyznam szczerze, nieco zaskakujące. 

Trybunał uznał, że Air Canada ponosi odpowiedzialność za wprowadzające w błąd informacje dostarczone przez chatbota udostępnianego na publicznie dostępnej stronie internetowej, niezależnie od tego, czy pochodzą one ze strony statycznej, czy z chatbota. Według Trybunału ogólnie „obowiązujący standard staranności wymaga od firmy dołożenia należytej staranności w celu zapewnienia właściwych informacji”.

A jak jest w Twojej firmie?

Czy w umowie z dostawcą jest uregulowana odpowiedzialność za błędy w danych wejściowych i wyjściowych w systemach genAI?

Z prawnego punktu widzenia kluczowe jest posiadanie odpowiednich zabezpieczeń, takich jak stosowne klauzule o wyłączeniu odpowiedzialności i ograniczeniu odpowiedzialności, a także przestrzeganie wszelkich innych odpowiednich wymogów prawnych, w tym kwestii ochrony danych. 

Jeżeli masz jakiekolwiek wątpliwości lub pytania w tym zakresie, zapraszam do kontaktu!

Renata W. Lewicka, radca prawny, Partner w Kancelarii Gorazda, Świstuń, Wątroba i Partnerzy Adwokaci i Radcowie Prawni.

Renata Warchoł-Lewicka

PARTNER, RADCA PRAWNY

GŁÓWNE OBSZARY ZAINTERESOWAŃ Ekspert w dziedzinie umów w obrocie gospodarczym, ze szczególnym uwz...