標題:
[時事討論]
人工智能或衝擊法律規範道德倫理
[打印本頁]
作者:
qqonqq
時間:
2017-7-12 08:08 AM
標題:
人工智能或衝擊法律規範道德倫理
7月10日電/近來,美國一家公司生產的超仿真機器人Sophia在電視節目上與人類對答如流,成為“網紅”機器人。對話中,Sophia流露出的喜悅、驚奇、厭惡等表情真實得令人贊嘆,網友驚呼:快和真人分不清了!
tvb now,tvbnow,bttvb1 o/ T- p2 t, p6 W- e
/ |* G0 Q1 ^* ^" ], V5 C* o1 n公仔箱論壇
技術往往是一把雙刃劍。人工智能在迅速發展的同時,也帶來了一些困惑和挑戰。人工智能會產生自主意識和情感嗎?會不會因此給人類社會帶來衝擊?
9 H5 `1 T. l1 B7 w. h
; a+ @4 u7 Z( E6 H+ P4 v$ R5 VTVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。
法律爭議
tvb now,tvbnow,bttvb9 ^% G) C: [. `" q
4 V( S) T4 M0 K! T* Dtvb now,tvbnow,bttvb
假設無人車傷了人,那麼是開發者負責還是駕駛公司負責
TVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。8 A' B% @( V0 g, T: B" p/ p7 Q
TVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。, C2 Z, O3 \. g( x b
關於人工智能帶來的“倫理困境”,讓很多專家感到糾結。儘管這樣的場景在目前還只存在於設想中:一輛載滿乘客的無人駕駛汽車正在行駛,遭遇一位孕婦橫穿馬路的突發狀況,如果緊急刹車可能會翻車傷及乘客,但不緊急刹車可能會撞到孕婦。這種情況下,無人車會怎麼做?
5 G1 B4 _5 V) J5 ~3 Y' q7 P5 y
TVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。8 V' C& w% P0 I
如果司機是人,那個瞬間完全取決於人的清醒判斷,甚至是本能或直覺。可當人工智能陷入人類“倫理困境”的極端情景時,其每一步都是通過算法設定好了的。
. \3 _3 x, j% |9 ATVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。
+ | v {9 J$ }% v* f
“無人車依靠的是人工智能大腦,它目前不可能做超出人類算法中所設定範圍的行為決策。”浙江大學計算機學院教授吳飛說,將全國每年的交通事故數據“喂”給計算機,人工智能可以學習海量數據裡隱含的各種行為模式。簡單來說,就是無人車會從以往案例數據庫中選取一個與當前情景較相似案例,然後根據所選取案例來實施本次決策。
0 ^7 ]( G( f( h/ r+ ]& p" f公仔箱論壇
tvb now,tvbnow,bttvb2 {) q, K; ?: n4 B6 U# I4 l
但遇到完全陌生的情景,計算機會怎麼辦?“無人車第一個選擇仍然是搜索,即在‘大腦’中迅速搜索和當前場景相似度大於一定閾
& L; `# a1 x C7 [& f公仔箱論壇
, n+ _. B# m+ Q E1 L2 ~2 X0 ~5.39.217.76
值的過往場景,形成與之對應的決斷。如果計算機搜索出來的場景相似度小於閾值,即找不到相似場景,則算法可約束無人車隨機選擇一種方式處理。”吳飛說。
& T) e9 @& C; P+ t* n7 M$ r' {
, q% _2 }" ^4 x公仔箱論壇
“程序員可通過代碼來約定無人車如何做,但這種約定始終要遵循普遍的社會倫理。這個過程中,程序員要和倫理學家一同參與把關,程序員要將符合倫理的決策用代碼的形式體現出來,輸入到系統中。”吳飛認為。
歡迎光臨 公仔箱論壇 (http://5.39.217.76/)
Powered by Discuz! 7.0.0