使網路閱讀成為最高樂趣。

霍金臨終警告,人工智慧極具威脅,人類會因此走向毀滅之路嗎?


科學探索者在人類的歷史上總是會出現一些傑出的人物,而史蒂芬霍金就是我們能夠想到的那些傑出人物之一。很遺憾,他在年去世了,讓我們這個世界少了一位智者。不過,他在臨終之前給我們留下了最...

- 2020年6月26日03時15分
- 科學文摘 / 科學探索者

科學探索者

在人類的歷史上總是會出現一些傑出的人物,而史蒂芬霍金就是我們能夠想到的那些傑出人物之一。很遺憾,他在2018年去世了,讓我們這個世界少了一位智者。不過,他在臨終之前給我們留下了最後一份「禮物」,也是向我們發出的警告:世界末日即將來臨。沒錯,世界末日之說是他認為必然會發生的事。就在他去世之前的幾周,他曾發表了一份名為《A Smooth Exit From Eternal

Inflation?》的論文,他相信宇宙是一個從開始到成長再到最終完結的過程,這也許是一個奇怪而美麗的設想,不過這種既抽象又複雜的東西,即使大多數的科學家都搞不明白,更剖析不了其中的內涵了。

根據史蒂芬·霍金的合作夥伴托馬斯·赫托格的說法,宇宙生命周期的終結將是一個相對平穩的過程,永恆膨脹(宇宙膨脹)的終結可能會以一種平穩的方式發生,不過這種現象也許地球上沒有人會看到它。然而,當我們談到世界盡頭之時,霍金曾對此做出了一些令人匪夷所思的預測,尤其對於目前火熱的人工智慧領域,霍金警告說,人工智慧或許會導致人類的終結,這可不是科幻小說中的章節,所以人類必須要重視它。


對於霍金來講,他的最大擔心莫過於人工智慧技術完全取代人類,有些人可能會設計出一個能夠自我複製的人工智慧程序,這將是一種超越人類的新生命形式。在2017年葡萄牙的一次人工智慧的峰會上,他就堅信人工智慧在不久的將來可能會成為一種真正的危險,它可以設計出自己的改進方案,這會比人類以往所遇見的一切對手都要聰明,不僅是自主機器人,甚至還有自主武器,到時候人類如果想和機器人打架的話,勝算又有幾何呢?

不僅是對人工智慧方面霍金有著擔憂,他還表示,也許在我們走到真正的人工智慧時代之前,我們就已經將自己毀滅了。2017年,霍金曾向BBC講述了我們是如何將自己毀滅的,其中最大的威脅來自於氣候變化,他說美國總統川普決定讓美國退出《巴黎協定》,他對此感到特別擔憂,人類已經無限接近全球變暖不可逆轉的臨界點了,川普的這一決定可能會把地球推到懸崖邊上,如果這樣做的話(退出巴黎氣候協議),唐納德·川普將對整個地球造成不可避免的環境破壞。

霍金認為如果人類希望繼續生存下去,那麼必須要找到一個殖民其他星球的方法。霍金曾預言,人類能夠生活在地球上也只有大約100年左右的時間了,到時候地球將無法維持人類的生存,因此我們需要找到一個新的星球生活,因為人口過剩問題和能源消耗問題會在不久的將來達到地球的極限,如果事態繼續朝著不好的方向發展的話,我們的未來又將走向何方呢?



不過霍金也表示,世界末日有可能來自人類所無法掌控的外太空,雖然地球遭受天災的可能性非常低,但隨著時間的推移,這種可能性也會逐漸增加,並在未來的一千年或一萬年內成為一個既定的事實,對於霍金的預言你又是怎麼認為的呢?歡迎在評論區留言。


延伸閱讀

14人不惜犧牲生命! 深海潛水器憑什麼如此重要?

新風暴生成預警!或24小時內出現,東北太平洋風王

走進百源鄉村游(七)| 紅色余家源,濃濃山水情

為什麼掌握暗物質可以把我們帶到恆星上

這種觀賞魚就是熱帶魚中的敗類,竟然敢把銀龍給咬成


熱門內容

電子書選