以太坊的聯(lián)合創(chuàng)始人維塔利克?布特林(Vitalik Buterin)認(rèn)為,如果未來(lái)超級(jí)人工智能開始攻擊人類,結(jié)果將是人類的徹底滅絕,不會(huì)有任何幸存者。 他在周一的一篇博客中表示:“這是一種極端的說(shuō)法:盡管氣候變化、人為流行病或核戰(zhàn)爭(zhēng)等最壞情況可能會(huì)造成巨大的危害,但仍有許多文明島嶼會(huì)完好無(wú)損地收拾殘片?!?/P> 然而,一旦超級(jí)人工智能選擇與人類作對(duì),結(jié)果可能是人類的徹底滅絕。他寫道:“但是一個(gè)超級(jí)智能的人工智能,如果它決定背叛我們,很可能不會(huì)留下幸存者,并永遠(yuǎn)終結(jié)人類,”在這種情況下,甚至火星都不可能成為人類的避難所。 布特林主張一個(gè)保留“人類”特征和能動(dòng)性的未來(lái),他說(shuō):“如果我們想要一個(gè)超級(jí)智能和‘人類’共存的未來(lái)――一個(gè)人類不僅僅是寵物,而是在世界上真正保留有意義的能動(dòng)性的未來(lái)――那么感覺(jué)像這樣的東西是最自然的選擇?!?/P> 在最近的一次活動(dòng)上,布特林談到了對(duì)以太坊未來(lái)發(fā)展的擔(dān)憂,他透露,他最大的兩個(gè)擔(dān)憂是加密貨幣發(fā)展的停滯和與人工智能相關(guān)的潛在危險(xiǎn)。 當(dāng)被問(wèn)及什么經(jīng)常占據(jù)他的思想時(shí),布特林提到了“與人工智能相關(guān)的問(wèn)題”,特別是由此帶來(lái)的生存風(fēng)險(xiǎn)。 (責(zé)任編輯:宋政 HN002)
|