Redian新闻
>
人類學家Hu Jiaqi:霍金提出了三個和我一樣的觀點
avatar
人類學家Hu Jiaqi:霍金提出了三個和我一樣的觀點# Reader - 书香世家
E*t
1
在著名人類學家胡家奇所著《拯救人類》一書第一版出版十周年的時間裏,科學技
術又有了飛速的發展,人類社會也有了諸多不同。
回想十年前,《拯救人類》付梓時幾乎沒有一個人能夠全部認同胡家奇的幾個核心
觀點,哪怕只是認同他的某一個核心觀點的人都少之又少。然而,僅僅短短十年,科學
技術的發展卻已很大程度地改變了人類對世界的認知。
胡家奇當時的預言似乎即將變為現實,以至於一些著名的科學家和學者都陸續提出
了一些和他類似,甚至是完全相同的觀點。
著名人類學家胡家奇曾在他所著《拯救人類(修訂版)》一書中坦言:以“霍金提
出了三個和我一樣的觀點”為名作為所著《拯救人類》的第二版前言,就是想借當今世
界最著名的物理學家史蒂芬·霍金展開我的說明。其實,這十年來提出和我相同的一些
觀點的科學家有很多,以霍金為例完全只是因為他的名氣大的緣故。
胡家奇在《霍金提出了三個和我一樣的觀點》一文中提到:當今世界最著名的物理
學家史蒂芬•霍金就人類命咛岢隽巳齻谌澜缫饛娏曳错懙闹匾挠^點,但
都比我就這些觀點正式出版的著作和發表的文章晚了多年。因此說是“霍金提出了三個
和我一樣的觀點”,而不是相反。
第一個觀點:2010年4月,霍金指出,宇宙中有千億的星系,每個星系又有數億顆
恒星,外星人幾乎肯定存在,我們應該避免與外星人接觸,千萬不要聯繫外星人,否則
可能會導致人類被毀滅,因為能夠穿越恒星際的距離來到地球的外星人,其科學技術的
領先程度必定遠高出地球人,我們無法與之抗衡。霍金的推理和舉例和我的完全一致,
但比我晚了三年。
第二個觀點:2014年12月霍金指出,人工智慧技術終將產生自我意識並取代人類,
因為技術的發展速度要快於生物的進化速度,當人工智慧發展完善後,可能會導致人類
滅絕。霍金的推理和舉例和我的基本一致,但比我晚了七年。
第三個觀點:就是在不久前,也就是2017年3月霍金在接受《倫敦時報》採訪時指
出,人工智慧如果管控不好有可能滅絕人類,我們需要以更快的速度識別這類威脅,並
在失控前採取行動,要做到這一點,需要組建某種形式上的世界政府。霍金的推理和舉
例與我的基本一致,但比我晚了十年。
首先,肯定不是我借鑒了霍金的觀點,多半是他借鑒了我的觀點,因為我在先,他
在後,而且我的文章和書稿都用中、英兩種文字,發給過多國領導人和多個機構,並在
多個網站上公開發表過,不僅有中國的網站,還有國外的科技、社會和政治類英文網站。
說霍金提出了三個和我一樣的觀點不是想炫耀我有多了不起,相反,我是想說世界
頂級科學家思考的觀點正在趨近我的核心觀點,而這些核心觀點我認為事關人類的生死
存亡,努力讓世界接受這一觀點並採取相應的行動,這是我一生的追求,借勢霍金這樣
的科學家正是我的用意。同時我還想說,霍金的觀點還不夠深入,不夠全面,不夠徹底。
還在1979年我剛上大學不久就產生了一個很怪的想法,科學技術是一把雙刃劍,既
能造福人類,也能毀滅人類,那麼科學技術照此發展下去會不會有一天把人類給滅絕。
如果在不久的未來科學技術就會滅絕人類那無疑是天大的事,那麼我們有沒有可能解決
這一問題呢?很快我就覺得這是一個很值得研究的課題,人的一生難得做成一件值得去
做的大事。不久後我就決定,我這一輩子只做這一件大事。我從國家機關下海經商也是
為了這件大事,因為有一定的經濟基礎後就可以靜下心來進行研究與寫作,並有條件推
廣我的研究成果。
其實,要嚴密的論證科學技術是否會滅絕人類,並找到化解這一危機的方案是很難
的,完成這一工作我用了近二十八年的時間,並終於在2007年1月完成了我的《拯救人
類》一書。這部八十萬字的著作在還是樣書的時候,我就將其寄給過中國國家主席、美
國總統和聯合國秘書長等26位人類領袖,但除了伊朗使館來過一個電話外,再沒有任何
回饋。
我曾與許多人進行過交流,但我的核心觀點常被認為是杞人憂天,有些人甚至直言
不諱地說我的觀點是謬論。
然而,僅僅才過去十年,科學技術又得到了長足的發展,一些我當時的預言似乎今
天就快要變成現實。同時,在這十年中我的一部分觀點已陸續被一些著名的科學家和學
者提出,這也是我還算欣慰的地方,遺憾的是,我的一些最核心的觀點目前還沒有有分
量的人提出,也沒有有分量的人認可我,這是我憂心如焚的事,因為留給人類的時間真
的已經不多。
這裏只談我的三個具有現實意義的核心觀點,霍金與我相同的前兩個觀點只是我的
分觀點,第三個觀點是我的一個具有現實意義的核心觀點,即只有通過世界政府才能管
控科學技術,在此不復述。另外兩個核心觀點我認為十分重要。
第一是:科學技術的繼續發展必定很快滅絕人類,長則二、三百年,短則就在百年
內,而且我認為多半會是後者。
其實現在已經有人提出了和我幾乎一樣的觀點,2013年5月與霍金在同一座城市的
牛津大學人類未來研究所發佈研究成果指出,人類最早將在下世紀被滅絕,罪魁禍首就
是科學技術。這是由眾多數學家、哲學家、科學家組成的專門的小組研究得出的結論。
該研究成果和用例與我的研究成果與用例幾乎完全一致,但比我晚了六年。
該研究所的所長尼克•博斯特羅姆在接受網路採訪時表示:“人類的科技能
力與人類哂眠@些能力的智慧正在展開一場重大比賽,我擔心前者可能會遙遙領先於後
者。”博斯特羅姆進一步闡述:行星撞地球、超級火山、核爆炸等危害不足以威脅人類
的生存,人類最大的威脅來自科技創新所帶來的“不確定因素”,如合成生物學、納米
技術和人工智慧,以及其他還沒有出現的科學技術成果。
當我得知他們的研究成果後喜出望外,隨即寫了“致:牛津大學人類未來研究院院
長尼克•博斯特羅姆教授”的信,同時我又寫了一篇文章“終於有了知音”,這
兩部分文字我都翻譯成英文發給了博斯特羅姆並放到了網上,但一直沒有回復。
2016年初,由穀歌開發的機械人“阿爾法狗”戰勝韓國圍棋冠軍李世石,震驚了世
界,這充分顯示機械人已經具備了深層學習的能力,對其進一步的思考是很怕的。霍金
、馬斯克、比爾•蓋茨等世界頂級科學家都對此十分擔憂,比爾•蓋茨更是
指出,“再過幾十年,人工智慧就會強大得足以引起擔憂,……不知道為什麼有些人對
此無動於衷”。這促使我考慮,我們公司也要抓緊進行人工智慧的研究,因為我不研究
,許多人也在研究,我研究還能跟蹤這一技術的動向,如人類真有不測,到時也許還能
幫一些忙。
第二個也是目前還沒有有分量的人接受的觀點是:為了避免人類的滅絕必須從現在
起就要嚴格限制科學技術的發展。
因為,科學技術具有不確定性,越是高深的科學技術越難把握。科學技術已經發展
到現在這樣的高度後,還在冒然前行風險之大誰都難以預測。將現有安全、成熟的科技
成果廣泛普及到全球,並進行合理的管理,完全可以保障全人類豐衣足食。如果向科學
技術進行無限制的索取,人類滅絕必將為時不遠。霍金認為管控好人工智能就能解決問
題,那麼我們能夠管控一時,能夠管控永遠嗎?能夠管控一項科技成果,能夠管控所有
科技成果嗎?只有通過世界政權的力量,將現有安全成熟的科技成果進行嚴格篩選後加
以普及利用,而後將其他的科技成果和科學理論嚴密、永遠地封存並達到遺忘,同時嚴
格限制科技研究,這才是人類永續未來的唯一途徑。
以上正是我認為霍金的認識還不夠深刻和全面的地方。也許人們認為這是謬論,但
我堅信這是真理。
這裏需要澄清的一點是,說限制科學技術的發展不是要中國首先限制,而是全球要
同步限制,如果要中國首先限制我也會堅決反對。
(注:霍金與我相同的第一、二、三個觀點分別見我的《拯救人類》一書“卷一”
的第三章第四節,第六章第二節,“卷二”的第一章第五節;《最大的問題》一書的第
三章第四節,第六章第二節,第八章第四節。我的《論人類滅絕》和《拯救人類(精選
本)》也有相關內容,我還就上述觀點發表過專門文章)
avatar
N*t
2
这是掩耳盗铃的幼稚想法。
就好比实验室培养液中的细菌,说千万不要与人类接触,接触了必定无法与之抗衡。

第一個觀點:2010年4月,霍金指出,宇宙中有千億的星系,每個星系又有數億顆
恒星,外星人幾乎肯定存在,我們應該避免與外星人接觸,千萬不要聯繫外星人,否則
可能會導致人類被毀滅,因為能夠穿越恒星際的距離來到地球的外星人,其科學技術的
領先程度必定遠高出地球人,我們無法與之抗衡。霍金的推理和舉例和我的完全一致,
但比我晚了三年。

【在 E**********t 的大作中提到】
: 在著名人類學家胡家奇所著《拯救人類》一書第一版出版十周年的時間裏,科學技
: 術又有了飛速的發展,人類社會也有了諸多不同。
: 回想十年前,《拯救人類》付梓時幾乎沒有一個人能夠全部認同胡家奇的幾個核心
: 觀點,哪怕只是認同他的某一個核心觀點的人都少之又少。然而,僅僅短短十年,科學
: 技術的發展卻已很大程度地改變了人類對世界的認知。
: 胡家奇當時的預言似乎即將變為現實,以至於一些著名的科學家和學者都陸續提出
: 了一些和他類似,甚至是完全相同的觀點。
: 著名人類學家胡家奇曾在他所著《拯救人類(修訂版)》一書中坦言:以“霍金提
: 出了三個和我一樣的觀點”為名作為所著《拯救人類》的第二版前言,就是想借當今世
: 界最著名的物理學家史蒂芬·霍金展開我的說明。其實,這十年來提出和我相同的一些

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。