
|
這種新型機(jī)器人看起來笨頭笨腦,其實(shí)很聰明,還可以陪你聊天。 |
機(jī)器人法典
但是,如果機(jī)器人一不小心投資失誤,造成巨大損失,誰該對此負(fù)責(zé),是設(shè)計(jì)者?還是使用者抑或機(jī)器人自己?
隨著機(jī)器人越來越智能化,如果它們傷害了人,闖下雷霆大禍,這個責(zé)任又是誰的呢?
美國著名科幻作家阿西莫夫早在上世紀(jì)40年代就開始思考這些問題,他在其作品《逃避》一書中第一次提出機(jī)器人定律。后來他在著名科幻小說《我,機(jī)器人》一書中再次明確制訂了著名的“機(jī)器人三大法則”:第一、機(jī)器人不能傷害人類;第二、 機(jī)器人必須遵守人類的指令,除非該指令違反第一條法則;第三、在遵守前兩條法則的前提下,機(jī)器人必須保護(hù)自我。

|
這是機(jī)器人“復(fù)制自己”的過程。(康奈爾大學(xué)圖片)
|
這三條法則似乎是防止機(jī)器人為非作歹的良策,但對于一名機(jī)器人專家而言,這些法則引起的問題比它解決的問題還要多。
首先、設(shè)計(jì)一個能夠遵從上述三大法則的機(jī)器人并非易事。 這種機(jī)器人必須具有一雙慧眼,能夠?qū)⑷祟惻c黑猩猩、雕像和仿人機(jī)器人分辨開來。 這對人類來說自然易如反掌,但對機(jī)器人來說卻是一個大大的難題。
其次,阿西莫夫的三大法則僅僅是為了解決機(jī)器人的安全性問題。如果機(jī)器人有朝一日像人類一樣有了七情六欲,那時還將產(chǎn)生其它的問題。如果他們真的像專家所認(rèn)為的那樣有了情感,他們能夠與人類結(jié)婚嗎?
這些問題對普通公眾來說也許顯得非常遙遠(yuǎn),但在十多年前,談?wù)搫游锏臋?quán)利對于許多人來說同樣也是那么不可思議。隨著科技一日千里,人類最好還是從現(xiàn)在就考慮這些懸疑。
機(jī)器人權(quán)益
英國政府的一項(xiàng)研究認(rèn)為,在未來50年內(nèi),機(jī)器人可能能夠自我復(fù)制,自我改善,發(fā)展出人工智能,也許會像人類一樣要求同樣的公民權(quán)。
如果這成為現(xiàn)實(shí),機(jī)器人就有權(quán)參加選舉,有義務(wù)納稅和服兵役,保家衛(wèi)國。 與此同時,各國社會屆時也將有義務(wù)為這些“數(shù)字公民”提供住房、醫(yī)療保健等種種社會福利。而這將為地球環(huán)境和資源造成新的壓力。
英國政府首席科技顧問戴維?金表示,這項(xiàng)研究并非是為了充當(dāng)“算命先生”,占卜未來,而是為了研究未來各種可能的機(jī)遇和危險(xiǎn),使政府未雨綢繆,早做應(yīng)對。
機(jī)器人DIY
看到這里,你是否也萌發(fā)了親自動手,制造一個機(jī)器人的沖動呢?不必?fù)?dān)心,一切皆有可能。
由微軟、英特爾、谷歌三大科技巨頭出資支持,美國卡內(nèi)基梅隆大學(xué)為大學(xué)生、高中生乃至所有對機(jī)器人感興趣的人推出了一系列自制機(jī)器人的“配方”。每套“配方”包括需要那些元件、組裝方法,并詳細(xì)介紹了使機(jī)器人工作的軟件程序,指導(dǎo)人們?nèi)绾卫矛F(xiàn)成的元件組裝一個與網(wǎng)絡(luò)相聯(lián)、遠(yuǎn)程遙控的半自動機(jī)器人。
(環(huán)球周末工作室/麥客)