2023年05月30日
/ ?$ y' w" m7 Q/ ^6 h; }2 ]+ mtvb now,tvbnow,bttvb
. `& D' {) `0 L! E
! L% Z# W% T! N" h5.39.217.76公仔箱論壇4 \8 D. n; ]$ l1 x, m
ChatGPT 害執業30年的資深律師也中招!美國紐約一名律師使用AI聊天機器人ChatGPT搜集資料並作為案例呈交法官,結果被發現其援引的6宗案例以及文章內容都是虛構的。律師承認自己沒有核實信息並為此道歉,雖然沒有先例,不過該律師恐面臨停牌處分。事件引發了法律界對於人工智能工具在法律研究中適當使用的討論,以及做出相關措施來以防止類似情況發生。
: n, `/ v- N# c- c2 FTVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。tvb now,tvbnow,bttvb: s9 @1 b: [* v5 O, `8 ~) d" g

5 T+ ~! g: R2 @4 }, \1 ]5.39.217.76AP圖片( q7 b' ]; f0 z! {8 ` y( T
4 x+ T+ y" P4 A5.39.217.76據美國有線電視新聞網(CNN)28日報道,男乘客馬塔對哥倫比亞航空公司提起訴訟,稱自己2019年搭乘該公司航班飛往紐約市途中,空服人員疏忽導致他膝蓋被客艙內推車撞傷。
. l9 h' Q" b7 n5 d公仔箱論壇; j- i$ Z3 h: a: S0 c- Z
馬塔的代理律師是已有30多年從業經歷的紐約市律師施瓦茨(Steven Schwarz)。為支持馬塔訴求,施瓦茨向法官凱文·卡斯特爾提交了多個所謂類似案例及其判決結果。 `! O' J- a+ Z( X% y* W# a/ n
2 g5 K# z4 a C: bTVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。
7 b5 d6 Y6 C+ V, j; j5.39.217.76示意圖
, x' f3 J5 k! D6 _公仔箱論壇
) d0 ~! N1 t- Y5 O# q6 N5 n今年4月,哥倫比亞航空公司的律師致信法官,質疑施瓦茨所提交案例信息的真實性。據美國《紐約時報》報道,律師之一巴尼諾說,他的律師行的律師精通航空法律,看出那些信息不實。他說,他們當時隱約感覺那些信息來自ChatGPT。
+ z* p& M$ a$ }1 ltvb now,tvbnow,bttvb
* r! V9 E' C2 \0 g8 o% b* y* Z' y被ChatGPT騙了 律師後悔公仔箱論壇, R3 j; M" c- @2 u9 d8 d
施瓦茨本月25日在宣誓書中承認,曾依賴ChatGPT搜索資料,結果證明來源不可靠。他表示「非常後悔使用生成式AI來補充法律研究」,他強調自己無意欺騙法庭或航空公司,又稱以前從未這樣做過。他是第一次用ChatGPT協助辦案,「沒有意識到內容偽造的可能性」。公仔箱論壇$ X a# V0 } n
tvb now,tvbnow,bttvb! x2 b, F" w& s) }, l4 ~
5.39.217.76) J0 N S: `7 | h- G- L' w- r
AP圖片tvb now,tvbnow,bttvb7 `) m: _3 Q+ N- [. H
TVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。$ m% ?2 Z* S. u. U0 t' [5 ~
據悉,施瓦茨詢問ChatGPT案例的真實性,ChatGPT再三確定這些案例為真實,且在「可信的法律數據庫」中可以查找到。
# f' a9 C0 E6 d! z/ F; U0 K1 L' ?' \1 L E8 z
施瓦茨在書面表示「深表懊悔」,願意承擔相關責任,承諾今後「沒有完全核實」就不會使用聊天機器人提供的信息。5.39.217.76' O0 ]" V! b$ g* w; r8 f. Y2 q
7 A0 I, J8 S: P; ]) O6 _5 N3 l法官卡斯特爾本月4日在一份書面文件中寫道,那6個案例的判決結果、引語等都是假的,該情況「史無前例」。他下令6月8日就處罰施瓦茨舉行聽証會。施瓦茨目前面臨何種懲罰尚未明確,最嚴重的情形可能是被停牌。 |