“機器人不得傷害人類,或目睹人類個體將遭受危險而袖手不管,”艾薩克?阿西莫夫(Isaac Asimov)的戒律奠定了其未來主義小說的道德基礎;但在他首次明確表述“機器人三定律”的75年后,這條至關重要的第一原則正在被現實壓倒。
沒錯,迄今為止還沒有“殺手機器人”馳騁在戰場上。但現在已經出現了可用來探查威脅并向目標——無論是飛來的導彈還是靠近的人類——開火的防御系統。五角大樓(Pentagon)測試了一批迷你無人機——它們帶來了一種可能性,即未來指揮官可派出一群群的skybot(空中機器人)進入敵人領土,收集情報、阻斷雷達、或在人臉識別技術的輔助下完成刺殺任務。從中國到以色列、從俄羅斯到英國,很多政府都急于把人工智能方面取得的快速進展應用于軍事用途。
對于研究人員和科技業高管來說,這種情況值得擔憂。他們已經因顛覆性技術將對社會產生的影響而飽受抨擊,他們不希望看到自己的商業創新被改造后用于制造毀滅。因此,百余家機器人和人工智能企業的創始人日前聯合呼吁聯合國采取行動,阻止各國在致命性自主武器系統方面展開軍備競賽。他們在公開信中強調了他們的擔憂,稱此類技術可能使沖突達到“前所未有的規模”、可能幫助專制政權壓制異見者,這些武器還可能因受到黑客攻擊而做出有害的行為。
您已閱讀45%(533字),剩余55%(659字)包含更多重要信息,訂閱以繼續探索完整內容,并享受更多專屬服務。