Prawnik postawiony przed sądem za korzystanie z AI... Następnie zostaje złapany przy użyciu sztucznej inteligencji podczas obrony, nie używając sztucznej inteligencji
Cóż, to właśnie przydarzyło się Michaelowi Fourte, nowojorskiemu prawnikowi.
Nowy Jork. Jeśli uważasz, że używanie sztucznej inteligencji w dokumentach sądowych jest ryzykowne, wyobraź sobie, że zostajesz złapany, a następnie ponownie używasz sztucznej inteligencji, aby wyjaśnić, że nie użyłeś jej w pierwszej kolejności. A potem znowu dać się złapać. Cóż, to właśnie przydarzyło się Michaelowi Fourte, nowojorskiemu prawnikowi.
Saga (po raz pierwszy zgłoszona przez 404 Media) rozpoczęła się, gdy Fourte został przyłapany na składaniu dokumentów sądowych pełnych halucynacji, wszystkie wygenerowane przez... AI. Zamiast przyznać się do błędu, Fourte próbował się wytłumaczyć. Tylko problem? Wyjaśnienie zostało również sporządzone przez sztuczną inteligencję.
Sędzia Joel Cohen nie był pod wrażeniem. W swoim orzeczeniu Cohen zwrócił uwagę na oczywistość: Fourte polegał na niesprawdzonej sztucznej inteligencji, aby bronić swojego użycia niesprawdzonej sztucznej inteligencji. Tłumaczenie: próbował użyć robota, aby wyjaśnić, dlaczego robot w ogóle nawalił.
Na tym dramat się nie skończył. Po tym, jak powodowie zgłosili błędy, Fourte upierał się, że sztuczna inteligencja nie była nawet zaangażowana, zażądał dowodów i twierdził, że sprawy nie zostały sfabrykowane. "Przypadki w ogóle nie są sfabrykowane" – powiedział, mimo że oczywiście są one w dużej mierze sfabrykowane.
W końcu przyznał się do korzystania ze sztucznej inteligencji, przyznał się do "pełnej odpowiedzialności" i jednocześnie próbował zrzucić winę na swój zespół. Ostatecznie sąd nałożył sankcje na Fourte, udowadniając, że rzeczywiście istnieje granica tego, jak daleko wymówki AI mogą sięgać w sądzie. Przestroga dla prawników...
