2023年05月30日
5 K! I$ ~) L2 f' [1 \2 y4 _tvb now,tvbnow,bttvb6 _& \8 e1 U. l* W9 H# B

& K3 \- z4 p+ r9 u2 m; f0 f5.39.217.76tvb now,tvbnow,bttvb3 L5 t9 b$ L# p& f/ s: h" A
ChatGPT 害執業30年的資深律師也中招!美國紐約一名律師使用AI聊天機器人ChatGPT搜集資料並作為案例呈交法官,結果被發現其援引的6宗案例以及文章內容都是虛構的。律師承認自己沒有核實信息並為此道歉,雖然沒有先例,不過該律師恐面臨停牌處分。事件引發了法律界對於人工智能工具在法律研究中適當使用的討論,以及做出相關措施來以防止類似情況發生。
2 D8 R" |: S$ n5 j公仔箱論壇$ e( y4 Q( t; T% D; p t" |
5.39.217.766 I4 y8 B$ |# @& e7 O
AP圖片TVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。 |# z7 A5 J8 V3 c0 k
0 B4 N; D; s- a: j0 n據美國有線電視新聞網(CNN)28日報道,男乘客馬塔對哥倫比亞航空公司提起訴訟,稱自己2019年搭乘該公司航班飛往紐約市途中,空服人員疏忽導致他膝蓋被客艙內推車撞傷。
/ p. l; o a8 t9 `$ U
* R, d6 @1 y$ w9 l馬塔的代理律師是已有30多年從業經歷的紐約市律師施瓦茨(Steven Schwarz)。為支持馬塔訴求,施瓦茨向法官凱文·卡斯特爾提交了多個所謂類似案例及其判決結果。5.39.217.76- o% X* k6 z& P; s' ^2 n: P" B6 B9 X3 q
5.39.217.76. D. q1 E+ k$ U$ K5 K

S! L5 s$ ^8 @, Stvb now,tvbnow,bttvb示意圖 ~ L- I, G8 |# e4 |
TVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。, v1 q5 Z2 M# r
今年4月,哥倫比亞航空公司的律師致信法官,質疑施瓦茨所提交案例信息的真實性。據美國《紐約時報》報道,律師之一巴尼諾說,他的律師行的律師精通航空法律,看出那些信息不實。他說,他們當時隱約感覺那些信息來自ChatGPT。
3 g; A+ f, B# q& D5 V4 T4 ptvb now,tvbnow,bttvb
A' O7 U7 u X% P& J% _% V; f被ChatGPT騙了 律師後悔
~2 l( M- u' L* R: ctvb now,tvbnow,bttvb施瓦茨本月25日在宣誓書中承認,曾依賴ChatGPT搜索資料,結果證明來源不可靠。他表示「非常後悔使用生成式AI來補充法律研究」,他強調自己無意欺騙法庭或航空公司,又稱以前從未這樣做過。他是第一次用ChatGPT協助辦案,「沒有意識到內容偽造的可能性」。
" \. c2 l; V) c" E& w+ Y) r3 sTVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。
9 Y7 C; g7 D! ~- I5.39.217.76 tvb now,tvbnow,bttvb% \5 @8 t& A; y# {1 C
AP圖片
( C+ n+ M! g& C, q; A6 J8 [
4 k# T+ d: ]% b2 C2 X, |5.39.217.76據悉,施瓦茨詢問ChatGPT案例的真實性,ChatGPT再三確定這些案例為真實,且在「可信的法律數據庫」中可以查找到。
7 d) G9 J `9 m$ ^公仔箱論壇
4 ]. v0 }! y# e g* t公仔箱論壇施瓦茨在書面表示「深表懊悔」,願意承擔相關責任,承諾今後「沒有完全核實」就不會使用聊天機器人提供的信息。6 O S* P9 C* E1 |
TVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。% Z) e- N, Y* U9 K& L
法官卡斯特爾本月4日在一份書面文件中寫道,那6個案例的判決結果、引語等都是假的,該情況「史無前例」。他下令6月8日就處罰施瓦茨舉行聽証會。施瓦茨目前面臨何種懲罰尚未明確,最嚴重的情形可能是被停牌。 |