返回列表 回復 發帖

[美洲] ChatGPT虛構6案例 紐約律師信以為真引用或面臨停牌!

2023年05月30日3 I5 [, Y8 J- V
- o% W1 u' q. h$ S4 B

* ]9 w9 q1 H6 _, S* q
1 N% [0 X1 [% M% o* P9 v) G7 U公仔箱論壇ChatGPT 害執業30年的資深律師也中招!美國紐約一名律師使用AI聊天機器人ChatGPT搜集資料並作為案例呈交法官,結果被發現其援引的6宗案例以及文章內容都是虛構的。律師承認自己沒有核實信息並為此道歉,雖然沒有先例,不過該律師恐面臨停牌處分。事件引發了法律界對於人工智能工具在法律研究中適當使用的討論,以及做出相關措施來以防止類似情況發生。
; N/ u, ^2 ~. j0 d1 a! u
! B0 p$ t; n9 U/ F0 E2 \. h: Atvb now,tvbnow,bttvb2 a) s4 c. O. p- c) ]
AP圖片TVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。& }2 l% p0 @% n3 c$ t/ `! Z

: p8 u& i1 G) J7 r據美國有線電視新聞網(CNN)28日報道,男乘客馬塔對哥倫比亞航空公司提起訴訟,稱自己2019年搭乘該公司航班飛往紐約市途中,空服人員疏忽導致他膝蓋被客艙內推車撞傷。" _3 B4 Y8 `, a4 D
公仔箱論壇/ S8 j2 |0 P1 ]# A5 \
馬塔的代理律師是已有30多年從業經歷的紐約市律師施瓦茨(Steven Schwarz)。為支持馬塔訴求,施瓦茨向法官凱文·卡斯特爾提交了多個所謂類似案例及其判決結果。
! f( u$ m9 O7 M" X
* e9 ~0 `8 D- f) @/ ~5 ^" ]% f' j; C
8 h$ @2 C: U# n8 N+ b) G! z示意圖
, |; N. ]+ [: K# F& f5 C+ m& Qtvb now,tvbnow,bttvb
, V' V  E1 e# S$ }: [& a: B, ^  C今年4月,哥倫比亞航空公司的律師致信法官,質疑施瓦茨所提交案例信息的真實性。據美國《紐約時報》報道,律師之一巴尼諾說,他的律師行的律師精通航空法律,看出那些信息不實。他說,他們當時隱約感覺那些信息來自ChatGPT。9 Z0 d  A) _& z* b8 x) ^
# C0 a' m" R6 {8 a3 e! \0 ^/ m+ s
被ChatGPT騙了 律師後悔
8 ?" ^: [- S0 r6 m5 M5.39.217.76施瓦茨本月25日在宣誓書中承認,曾依賴ChatGPT搜索資料,結果證明來源不可靠。他表示「非常後悔使用生成式AI來補充法律研究」,他強調自己無意欺騙法庭或航空公司,又稱以前從未這樣做過。他是第一次用ChatGPT協助辦案,「沒有意識到內容偽造的可能性」。
: j1 q& a. s3 ^  i. V3 H7 V7 |4 v- j
# `4 B# M1 F5 A2 @. g! ~3 S& a
: E9 y9 v  R  C# }  @/ {6 r7 I4 Ftvb now,tvbnow,bttvbAP圖片TVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。# X2 H; M9 a3 P$ u* S/ m0 P) I; B! T

0 F9 J' p$ j5 i, o據悉,施瓦茨詢問ChatGPT案例的真實性,ChatGPT再三確定這些案例為真實,且在「可信的法律數據庫」中可以查找到。tvb now,tvbnow,bttvb4 Y: N1 i6 m& p% o0 o

2 J6 C* l1 d% W1 Q# c施瓦茨在書面表示「深表懊悔」,願意承擔相關責任,承諾今後「沒有完全核實」就不會使用聊天機器人提供的信息。公仔箱論壇0 K9 @) p. S* l

  h8 q, _' t2 j! `! S. W0 W法官卡斯特爾本月4日在一份書面文件中寫道,那6個案例的判決結果、引語等都是假的,該情況「史無前例」。他下令6月8日就處罰施瓦茨舉行聽証會。施瓦茨目前面臨何種懲罰尚未明確,最嚴重的情形可能是被停牌。
返回列表