一名AI研究者的恐懼:人工智能可能讓我遺臭萬年
2017-08-11 10:04:11 n然而,目前我也很難想象我開發出來的計算機怎么樣才能成為未來世界的怪物。有時就會像奧本海默在帶頭建造世界上第一顆核彈之后哀嘆的那樣,我會想我是否也會成為“世界的毀滅者”?
我想,我會在歷史上留名,但確是臭名昭著。那作為一名人工智能科學家,我在擔心什么呢?
對未知的恐懼
由科幻小說作家Arthur Clarke設想并最后由電影導演Stanley Kubrick制成的計算機HAL 9000就是一個很好的例子。在很多復雜的系統里,例如泰坦尼克號、美國航空航天局的航天飛機、切爾諾貝利核電站,工程師們把許多不同的組件放在一起。設計師們可能非常清楚每個單獨的元素是如何工作的,但是當這些元素連接在一起時,他們就無法知之甚透,就會產生意外的后果。
所以不能完全了解的系統,往往會不受控制并出現意外的后果。一艘輪船的沉沒,兩架航天飛機的爆炸,遍布歐亞大陸的放射性污染,在每一場災難都是一系列小差錯導致的大災難。
而在我看來,目前人工智能也落入了同樣的境地之中。我們從認知科學中學習最新的研究結果,然后將其轉化為一種程序算法并添加到現有的系統中。我們在還不了解智能認知的情況下,便開始對人工智能進行改造。
例如IBM的沃森和谷歌的Alpha系統,我們將強大的計算機能力和人造神經系統結合在一起,幫助他們取得了一系列令人驚嘆的成就。如果這些機器出了差錯,可能出現的結果是沃森不會喊“危險”了或者Alpha不能打敗圍棋大師了,但是這些錯誤都不是致命的。
然而,隨著人工智能的設計變得更加復雜,電腦處理器變得更快,它們的技能也會得到提升。出現意外的風險也在增加,我們的責任也更重。我們經常說“人無完人”,那么我們創造的系統也肯定存在缺陷。
對濫用的恐懼
目前我正在應用“神經進化法”來開發人工智能,在可能引發的意外后果這一方面,我并不十分擔心。我創造虛擬環境,開發數字生物從而使他們的大腦可以解決日益復雜的任務。我們會評估這些智能生物的表現,表現最好的會被挑選出來再次生產并研發下一代。這樣,經過幾代的進化,這些機器生物已經逐漸演變出了認知能力。
現在,我們正在給這些機器生物設定一些非常簡但的任務,比如他們可以做簡單的導航任務,做一些簡單的決定等,但很快我們就會設計出能夠執行更復雜任務更智能的機器,最終,我們希望可以達到人類的智力水平。
在這個過程中,我們會發現問題并解決問題。每一代機器都能更好地處理前幾代機器曾經出現的問題。這幫助我們可以減少在未來他們真正進入世界時出現意外結果的概率。
此外,這種"代代相傳“的改良方法還可以幫助我們發展人工智能的倫理道德。最終我們想要演變出是有可信賴性及利他主義這樣人類道德的人工智能。我們可以設置一個虛擬環境,給那些表現出友善、誠實和同理心的機器獎勵。可能這也是一種確保我們研發的是更聽話的仆人或值得信賴的伙伴的方法。同時也可以減少出現冷酷殺手機器人的幾率。
雖然這種“神經進化法”可能降低出現不可控結果的可能性,但它并不能防止濫用。但這是一個道德問題,而不是科學問題。作為一名科學家,我有說出真相的義務,我需要報告我在實驗中發現的東西,不管這種結果我想不想說。我的重點不是決定我想要什么,而是將結果展示出來。