
Photo by Saúl Bucio on Unsplash
Chyby generované umělou inteligencí v soudních spisech vedou k právním potížím pro advokáty
Zpráva sdílená včera na Reuters odhaluje, že halucinace AI – chyby a vymyšlené informace vytvořené generativními modely AI – způsobují právní problémy na soudy ve Spojených státech.
Na skok? Zde jsou rychlé fakty!
- Morgan & Morgan poslali e-mail 1 000 právníkům, ve kterém upozorňují na rizika spojená s AI.
- Nedávný případ právníků Walmartu, kteří přiznali používání AI pro své případy, vyvolal poplach v právnické komunitě.
- Použití halucinací chatbotů v soudních prohlášeních se v posledních letech stalo opakujícím se problémem.
Tento měsíc, právnická firma Morgan & Morgan poslala e-mailové varování více než 1000 advokátům o rizicích spojených s používáním chatbotů a falešných případů generovaných umělou inteligencí.
Před několika dny dva právníci ve Wyomingu přiznali, že do soudního podání žaloby proti Walmartu zařadili falešné případy generované umělou inteligencí, a federální soudce je za to hrozil sankcemi.
V prosinci byl profesor Stanfordu a odborník na dezinformace Jeff Hancock obviněn z používání umělé inteligence k vytvoření falešných citací soudních prohlášení jako součásti své obhajoby zákona státu na rok 2023, který trestá používání deepfake technologie k ovlivňování voleb.
Více případů jako tyto, v průběhu posledních několika let, generuje právní tření a přidává potíže soudcům a účastníkům soudních sporů. Morgan & Morgan a Walmart odmítly komentovat tuto záležitost.
Generativní AI pomáhá právníkům snižovat čas potřebný na výzkum, ale její halucinace mohou přinést významné náklady. V loňském roce průzkum společnosti Thomson Reuters odhalil, že 63% právníků využívalo AI pro práci a 12% to dělalo pravidelně.
V loňském roce připomněla Americká advokátní komora svým 400 000 členům pravidla právnické etiky, která zahrnují povinnost advokátů stát za veškerými informacemi uvedenými v jejich soudních podáních. Upozornila také, že tato pravidla zahrnují i informace generované umělou inteligencí, a to i v případě, že to bylo nezáměrné – jako v případě Hancocka.
„Když jsou právníci přistiženi, že používají ChatGPT nebo jakýkoliv generativní AI nástroj k vytváření citací bez kontroly, je to prostě a jednoduše neschopnost,“ řekl Andrew Perlman, děkan právnické fakulty Suffolk University pro Reuters.
Před několika dny BBC také sdílela zprávu varující před falešnými citáty generovanými umělou inteligencí a problémy s nástroji umělé inteligence v žurnalistice.
Zanechat komentář
Zrušit