智能機器人會給人類帶來什么?
現在的機器人還沒有任何“動機”,但是將來的那些比人還聰明的機器人就不同了。到那時候,科學作家艾薩克·阿西莫夫于1950年在其著作《我,機器人》中提出的著名的為我們后來人奉為圭臬的機器人三定律就可能會過時了。機器人三定律是:第一定律,機器人不得傷害人,也不得在人受到傷害時袖手旁觀;第二定律,機器人應服從人的一切命令,但不得違反第一定律;第三定律,機器人應保護自身的安全,但不得違反第一、第二定律。這三個定律更有可能被機器人單方面撕毀協議。因為一旦機器人與人一樣有了感情、思維、推理和智慧,甚至比人更聰明,就會比人更工于算計和自私。這樣,下面的一個在激烈競爭時代的流行故事就得改寫。原先的版本是兩個人在森林里走路,遇到了一只老虎。一個蹲下來系鞋帶,旁邊的人說這時候系鞋帶還有什么用啊?系鞋帶者說,我系好鞋帶只要能跑過你就有用了。但是機器人與人在森林里散步,也遇到了一只老虎。機器人就會思考,什么機器人不得傷害人,見鬼去吧!在利益面前,先保護自我。機器人也不用系鞋帶,它首先就會把人一把揪住,送到虎口,說,你先湊合著吃這個人吧,我再給你找個更可口的,說完就自己先逃走了。這種說法存在一個誤區:認為越聰明的人越自私,這是毫無根據的。在我們日常生活中也得不出這樣的“規律”,那些最自私的人恰恰不大聰明,不知道與人合作才能獲得更大的利益。生物進化的自然選擇規律使得生物都是自私的基因的表現,所以一切生物的本性都是一樣自私的,盡管如此,生物的智力卻有天壤之別,這也說明自私與智力并不相關。
機器人三定律這個說法不恰當,這三條不是自然界的“定律”,也不是機器人與人簽訂的“協議”,而是我們制造機器人時給機器人規定的行為準則,也可以看成是一組價值觀。當然這個準則只是一般而論,如果有人想設計機器人用于戰爭,恐怕就要改成“不傷害自己人,要傷害敵人”之類了。這類機器人非常危險,設計者當然會加上多重的安全措施,以免它掉轉槍口打自己,正如對軍人要訓練他絕對服從命令一樣。
機器人也會有某種程度的“自私”作為學習時的評價準則,例如盡量節約能量。但是與人類比較起來,其自私的程度會遜色很多。這樣估計有幾條理由:第一,人是進化的產物,是自私的基因的表現,其生存的意義就是生存本身,而機器人是人是人設計的,其生存的意義是為人而存在的,是獲得更多的知識。第二,人是動物,受到很多生物學的制約,但是機器人則不存在這種制約。例如,生命屬于人只有一次,所以人(以及一切動物)都會盡最大努力保護自己的生命,“我”是唯一的;但對于機器人而言,這些約束卻不存在,機器可以自由的復制自己,就像孫悟空拔一把毫毛變出成千上萬的自己,到任務完成后再合成一個,把各自學到的知識收集到一起;人的頭腦不可能和肉體分離,機器人卻可以把腦袋放在某個計算機里,通過寬帶網控制現場的身體,身體“遇難”了,再換一個就是,如同我們換一件衣服,甚至可以根據不同的任務選用不同結構的“身體”;機器人的“我”的概念與人類有很大不同,人類的“我”是一生不變的,不可分合的,機器人的“我”可以是根據任務臨時組建的,由于機器人的知識可以共享,所有各個機器人獲得的新知識都放在一個巨大的共同知識庫中,當需要完成特定任務時,可以按照任務需要從知識庫中選取知識和經歷,組建一個機器人,任務完成后把所學的新知識、新經驗加入知識庫,“我”到此終結。這樣可以隨時產生,隨時消亡的“我”,當然沒有太自私的理由。
所以那個老虎的故事就沒什么道理,機器人的身體是金屬和塑料制品,老虎不會吃,沒有理由逃走;即使損壞了,也可以很方便的修復或更換;而它如果想出好方法來救人,就成為可貴的知識,被載入知識庫,使自己的一部分得到永生,何樂而不為。