Williams爬到上面開始工作時(shí),一只機(jī)器手臂也處于運(yùn)行狀態(tài)。很快,機(jī)器手來到Williams身邊,撞到了他的頭,他當(dāng)場死亡。機(jī)器手還在繼續(xù)工作,而這名工人的尸體直到30分鐘之后才被發(fā)現(xiàn)。
在那個(gè)冬日,Williams成了歷史上第一個(gè)被機(jī)器殺死的人。
這樣的事件完全是機(jī)器的無心之失。當(dāng)時(shí)的工廠沒有相關(guān)的保護(hù)設(shè)施和警報(bào)措施。1979年的人工智能還沒有發(fā)展到能夠預(yù)防這種事情的程度。最后,陪審團(tuán)裁定,機(jī)器在設(shè)計(jì)時(shí)沒有將這種事情考慮進(jìn)去,Williams的家人得到了1000萬美元的賠償金。
第二例機(jī)器殺人事件發(fā)生在兩年后的日本,情況也類似:機(jī)器沒有感應(yīng)到37歲工人Kenji Urada的存在,無意中造成了他的死亡。
隨后,機(jī)器人專家、電腦學(xué)家和人工智能專家一直在努力解決這個(gè)問題,他們想讓機(jī)器安全地與人類互動(dòng)。
幾十年后,人類因機(jī)器而死的報(bào)導(dǎo)似乎越來越常見。Uber和特斯拉的自動(dòng)駕駛車輛就曾因?yàn)闅⑺莱丝突蜃驳铰啡硕狭诵侣?。雖然現(xiàn)在的安全設(shè)施越來越發(fā)達(dá),但問題仍然存在。
雖然這些死亡事件都不是機(jī)器有意為之的,但受到《終結(jié)者》和《黑客帝國》等電影和小說的影響,人們很擔(dān)心人工智能會(huì)發(fā)展出自我意志,最終傷害人類。
牛津大學(xué)科學(xué)家Shimon Whiteson將這種擔(dān)憂稱為“擬人化錯(cuò)誤”,這種謬論認(rèn)為“擁有與人類相似智力的系統(tǒng)也一定擁有類似人的欲望,比如求生欲、自由欲望和對(duì)尊嚴(yán)的渴望等。但這是不可能的,因?yàn)橐粋€(gè)系統(tǒng)只會(huì)擁有我們所賦予的欲望。”
他認(rèn)為價(jià)值觀偏差才是對(duì)人類的更大威脅,即程序員所下達(dá)的命令可能與他們的真實(shí)意愿有所不同,即機(jī)器不能完全理解人類的命令。隨著電腦變得越來越智能化和自動(dòng)化,價(jià)值觀偏差導(dǎo)致的結(jié)果將更為嚴(yán)重。
另外,他認(rèn)為出于軍事目的而故意設(shè)計(jì)的殺人機(jī)器才更可怕。這也是為什么全球的AI和機(jī)器人專家都呼吁禁止發(fā)展這種技術(shù)。聯(lián)合國也因此將在2018年討論是否應(yīng)該對(duì)機(jī)器人殺手進(jìn)行管理,以及如何管理。
轉(zhuǎn)載請(qǐng)注明出處。