世界著名物理學家史蒂芬·霍金教授稱,人類在地球的日子已經(jīng)不多了,機器人可能摧毀人類,我們唯一的希望就是離開地球。
他在新書《如何制造宇宙飛船》(How to Make a Spaceship)中發(fā)出警告,由于疾病和戰(zhàn)爭,我們的星球正成為危險的地方。
這本書由記者朱利安·格斯里(Julian Guthrie)撰寫,包含了霍金寫的編后語?!缎l(wèi)報》刊登了此書的摘錄,提到霍金教授對未來太空旅行的預測。他稱:“我認為地球上的生命面臨被災(zāi)難摧毀的風險,如突然而至的核戰(zhàn)爭、轉(zhuǎn)基因病毒或其他危險,這種風險在不斷增長。我想如果人類不走向太空就沒有未來。”
霍金在1月7日BBC錄制年度里斯講座(Reith Lectures)節(jié)目時也發(fā)表了類似的言論。該講座探討了對黑洞的研究,在回答觀眾提問時他發(fā)出了此警告。有觀眾問世界將如何終結(jié),霍金回答到,人類面臨的大多數(shù)威脅日益來自科技的進步。今年74歲的霍金稱,這些威脅包括核戰(zhàn)爭、全球變暖帶來的災(zāi)難性后果和轉(zhuǎn)基因病毒。
在講座舉行前他對《Radio Times》稱:“科技不會停止進步或倒退,因此我們必須認識到危險并控制它們。”要避開這些威脅,人類將必須殖民到其他星球,但霍金認為可能在100多年后才能實現(xiàn)殖民。他表示:“我們至少在未來100年里無法建立自我維持的太空殖民地,因此在此期間我們?nèi)祟惐仨毞浅V斏鞯貙Υ{?!笔澜绺鲊廊辉谕度氪罅抠Y源研究如何將人類送入太空。
本周美國參議院提交了一份兩黨法案,批準了NASA(美國航空航天局)向火星發(fā)送宇航員的195億美元預算,但要求其必須在25年內(nèi)完成計劃?;艚鹨郧耙仓赋隽巳斯ぶ悄埽ˋI)的風險,認為AI發(fā)展至足夠強大時會導致人類的滅亡。7月霍金和特斯拉CEO馬斯克以及1000名機器人專家發(fā)表公開信,警告“自動化武器將成為明日的AK47。”
馬斯克去年曾表示:“如果我們成為多星球物種而不是單星球物種,人類文明可以延續(xù)長很多的時間。如果我們是單星球物種,最終會滅亡?!彼墓維paceX在努力將人類送入太空。上周該公司試車了新的Raptor(猛禽)“星際交通引擎”,該引擎將用于向火星發(fā)送宇航員。
這種火箭引擎比目前的獵鷹9號火箭強大3倍,最終將用于發(fā)射SpaceX載人宇宙飛船。同時也是SpaceX首席執(zhí)行官的馬斯克稱,該火箭最終將能產(chǎn)生持續(xù)382秒的69萬磅(313噸)推力。該引擎以液態(tài)甲烷和液態(tài)氧為燃料,而不是獵鷹9號Merlin(隼)引擎使用的航空煤油。
鄂ICP備2020021375號-2
網(wǎng)絡(luò)傳播視聽節(jié)目許可證(0107190)
備案號:42010602003527
今日湖北網(wǎng)版權(quán)所有
技術(shù)支持:湖北報網(wǎng)新聞傳媒有限公司
舉報電話:027-88568010
運維監(jiān)督:13307199555