Chyby generované umělou inteligencí v soudních spisech vedou k právním potížím pro advokáty

Photo by Saúl Bucio on Unsplash

Chyby generované umělou inteligencí v soudních spisech vedou k právním potížím pro advokáty

Doba čtení: 2 minut

Zpráva sdílená včera na Reuters odhaluje, že halucinace AI – chyby a vymyšlené informace vytvořené generativními modely AI – způsobují právní problémy na soudy ve Spojených státech.

Na skok? Zde jsou rychlé fakty!

  • Morgan & Morgan poslali e-mail 1 000 právníkům, ve kterém upozorňují na rizika spojená s AI.
  • Nedávný případ právníků Walmartu, kteří přiznali používání AI pro své případy, vyvolal poplach v právnické komunitě.
  • Použití halucinací chatbotů v soudních prohlášeních se v posledních letech stalo opakujícím se problémem.

Tento měsíc, právnická firma Morgan & Morgan poslala e-mailové varování více než 1000 advokátům o rizicích spojených s používáním chatbotů a falešných případů generovaných umělou inteligencí.

Před několika dny dva právníci ve Wyomingu přiznali, že do soudního podání žaloby proti Walmartu zařadili falešné případy generované umělou inteligencí, a federální soudce je za to hrozil sankcemi.

V prosinci byl profesor Stanfordu a odborník na dezinformace Jeff Hancock obviněn z používání umělé inteligence k vytvoření falešných citací soudních prohlášení jako součásti své obhajoby zákona státu na rok 2023, který trestá používání deepfake technologie k ovlivňování voleb.

Více případů jako tyto, v průběhu posledních několika let, generuje právní tření a přidává potíže soudcům a účastníkům soudních sporů. Morgan & Morgan a Walmart odmítly komentovat tuto záležitost.

Generativní AI pomáhá právníkům snižovat čas potřebný na výzkum, ale její halucinace mohou přinést významné náklady. V loňském roce průzkum společnosti Thomson Reuters odhalil, že 63% právníků využívalo AI pro práci a 12% to dělalo pravidelně.

V loňském roce připomněla Americká advokátní komora svým 400 000 členům pravidla právnické etiky, která zahrnují povinnost advokátů stát za veškerými informacemi uvedenými v jejich soudních podáních. Upozornila také, že tato pravidla zahrnují i informace generované umělou inteligencí, a to i v případě, že to bylo nezáměrné – jako v případě Hancocka.

„Když jsou právníci přistiženi, že používají ChatGPT nebo jakýkoliv generativní AI nástroj k vytváření citací bez kontroly, je to prostě a jednoduše neschopnost,“ řekl Andrew Perlman, děkan právnické fakulty Suffolk University pro Reuters.

Před několika dny BBC také sdílela zprávu varující před falešnými citáty generovanými umělou inteligencí a problémy s nástroji umělé inteligence v žurnalistice.

Líbil se Vám tento článek?
Ohodnoťte jej!
Nesnášel jsem ho Opravdu se mi nelíbí Byl v pořádku Docela dobrý! Absolutně úžasný!

Jsme rádi, že se vám náš článek líbil!

Věnujte nám prosím chvilku a zanechte nám hodnocení na portálu Trustpilot. Vaší zpětné vazby si velmi vážíme. Děkujeme za vaši podporu!

Ohodnotit na portálu Trustpilot
0 Hlasovalo 0 uživatelů
Titulek
Komentář
Děkujeme za vaši zpětnou vazbu
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zanechat komentář

Loader
Loader Zobrazit více...