2023年05月30日
. E: n$ Y( B# E
( x7 ?4 R: _! b( \/ q( {TVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。 tvb now,tvbnow,bttvb* M, _% y2 b/ f$ L
tvb now,tvbnow,bttvb+ Y0 E- M, e! g" F- U% ]
ChatGPT 害執業30年的資深律師也中招!美國紐約一名律師使用AI聊天機器人ChatGPT搜集資料並作為案例呈交法官,結果被發現其援引的6宗案例以及文章內容都是虛構的。律師承認自己沒有核實信息並為此道歉,雖然沒有先例,不過該律師恐面臨停牌處分。事件引發了法律界對於人工智能工具在法律研究中適當使用的討論,以及做出相關措施來以防止類似情況發生。
2 f2 i# X! a) x* Q# NTVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。
- l2 E( D# R3 |# r公仔箱論壇
. j3 P4 o e- b# g( J' x公仔箱論壇AP圖片
5 w" g) G: _$ l2 F5 ~
, I3 [# [& n: S0 F據美國有線電視新聞網(CNN)28日報道,男乘客馬塔對哥倫比亞航空公司提起訴訟,稱自己2019年搭乘該公司航班飛往紐約市途中,空服人員疏忽導致他膝蓋被客艙內推車撞傷。公仔箱論壇7 I5 b: Q* P( b6 q
公仔箱論壇 A3 C# y/ K, ?
馬塔的代理律師是已有30多年從業經歷的紐約市律師施瓦茨(Steven Schwarz)。為支持馬塔訴求,施瓦茨向法官凱文·卡斯特爾提交了多個所謂類似案例及其判決結果。
0 {( u+ s' o, [6 k( s" g2 p/ e+ c5.39.217.76公仔箱論壇0 J! Q3 ?: }. T0 z/ M: v
tvb now,tvbnow,bttvb! Q0 a$ r: g% F
示意圖
) G- o/ ]6 F9 L9 m
3 X% T& K) t8 r+ z- m# l3 x5.39.217.76今年4月,哥倫比亞航空公司的律師致信法官,質疑施瓦茨所提交案例信息的真實性。據美國《紐約時報》報道,律師之一巴尼諾說,他的律師行的律師精通航空法律,看出那些信息不實。他說,他們當時隱約感覺那些信息來自ChatGPT。" c4 `0 J- T+ I* A0 {
TVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。! l1 ]( ?) b- j9 N; t+ C
被ChatGPT騙了 律師後悔( M1 n0 \: w1 e+ z( W3 U [# v
施瓦茨本月25日在宣誓書中承認,曾依賴ChatGPT搜索資料,結果證明來源不可靠。他表示「非常後悔使用生成式AI來補充法律研究」,他強調自己無意欺騙法庭或航空公司,又稱以前從未這樣做過。他是第一次用ChatGPT協助辦案,「沒有意識到內容偽造的可能性」。5.39.217.76+ G: G) j. W* o* l# _, p
$ u) a7 E i! K公仔箱論壇 / [! r2 h+ T0 g* R" P: _, w
AP圖片5.39.217.76/ ]" x! o# a! o8 h
TVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。9 U& y C. M* F! n, ]1 N2 o0 T; D
據悉,施瓦茨詢問ChatGPT案例的真實性,ChatGPT再三確定這些案例為真實,且在「可信的法律數據庫」中可以查找到。: m) k- h/ }" x* }1 o" e
tvb now,tvbnow,bttvb% q; h* ?3 g2 ?% Z) F2 d
施瓦茨在書面表示「深表懊悔」,願意承擔相關責任,承諾今後「沒有完全核實」就不會使用聊天機器人提供的信息。5 P1 [3 K* ~1 C( Z, |
: J; d" S" V. c& v8 Z; M9 @- l2 [法官卡斯特爾本月4日在一份書面文件中寫道,那6個案例的判決結果、引語等都是假的,該情況「史無前例」。他下令6月8日就處罰施瓦茨舉行聽証會。施瓦茨目前面臨何種懲罰尚未明確,最嚴重的情形可能是被停牌。 |