【本報國際組報道】霍金認為,無論人變得多聰明,都不可能找到方法超越光速,科幻小說中的空間扭曲或維度捷徑不會在現實中出現。要到遙遠的宇宙探索,可能要靠機器。人類派出這些可以運作超過十萬年的機器去星際旅行,它們去到合適的星球挖礦,再自我複製,就成了新形式的生命,那是以機械和電子部件為基礎的生命,最終取代以DNA為基礎的生命,情況一如DNA取代更早期的生命形態。
AI潛能無限 人類未必能掌控
霍金認為,人工智能(AI)的潛能非常巨大,甚至令消除疾病和貧窮變得有可能,然而,若我們不防範AI的潛在風險,創造AI將會成為人類史上最重大及最後的一件事情。中短期而言,他認為,AI將會為人類帶來很多好處,包括很多工作可以自動化,只要用得其所,會帶來經濟繁榮和平等,關鍵是:誰掌控AI。展望未來,AI的潛力無限,甚至出現爆炸性的飛躍進步,但關鍵是:人類能否掌控AI。
霍金寫道:「AI的真正風險不在於是否有惡意(malice),而是其能力。一個超高智能的AI辦事效能超卓,但只要目標跟我們不一致,就麻煩了。你踩死一群蟻很可能不是因為你是一個憎恨螞蟻的惡人,你只不過是一個綠色水電項目的負責人,剛巧項目範圍內有個蟻垤,那是螞蟻的不幸。我們就不要把自己置於螞蟻的角色好嗎。」
那麼,人總可以隨時選擇把AI關掉吧,這不就沒威脅了嗎?霍金答得乾脆俐落:「人問電腦:『有上帝嗎?』電腦回到:『現在有了。』然後自動接通一切。」 |