簡體中文 / English
                                Call Us: +86 21 52081230 
                        網站首頁 關于我們 核心業務 人力資源 聯系我們
                        行業新聞    > 新聞資訊 > 行業新聞
                        公司動態 員工天地 行業新聞

                        亨利·基辛格最后的神圣戰爭
                        發布時間:2021-11-12 15:47:56

                        【美國《時代》周刊網站11月5日報道】題:亨利·基辛格最后的神圣戰爭:阻止危險的人工智能(記者貝琳達·勒斯科姆)

                        美國前國務卿亨利·基辛格在98歲高齡之際,有了全新的興趣點:人工智能。在2016年召開的比爾德貝赫會議期間,時任谷歌公司執行董事長埃里克·施密特說服他參加了一場關于人工智能主題的講座,讓他對此產生了濃厚的興趣。兩人與麻省理工學院蘇世民計算機學院院長丹尼爾·胡滕洛赫爾合作,撰寫了一本令人振奮的新書——《人工智能時代》。書中探討了人工智能迅速崛起并投入使用所帶來的影響,用他們的話說,這“預示著人類事務的一場革命”。這本書提出的觀點是,人工智能的進程如此勢不可擋,如此天衣無縫地嵌入人類事務,而且如此不可預知,如果沒有一定的深謀遠慮與妥善管理,它們將帶來的“劃時代轉型”可能讓人類歷史走向危險的方向。

                        基辛格與施密特一同坐下來接受了《時代》周刊記者的采訪,講述了他們所展望的未來。

                        技術缺乏哲學引導

                        問:基辛格博士,您是一位資歷深厚的政治家。您為什么認為人工智能對您來說是一個足夠重要的主題?

                        基辛格:我在讀大學本科時,寫了一篇300頁的論文,題為《歷史的意義》。歷史的意義和我們向何處去的主題一直占據著我的生活。技術奇跡并沒有讓我如此著迷;真正讓我著迷的是,我們正在進入人類意識的新時期。對此,我們理解得還不夠透徹。

                        說到人類意識的新時期,我們指的是,對世界的認知會有不同,至少像啟蒙運動時期與中世紀之間的不同那么明顯,當時西方世界在從宗教角度認知世界轉向基于理性認知世界,這個進程是非常緩慢的。這次,轉變的速度會快一些。

                        其中有一個重要的不同。啟蒙運動時期,存在一個基于信仰的概念世界。因此,伽利略和已故的啟蒙運動先驅們擁有一套當時盛行的哲學,他們要在這種背景下檢驗自己的思想。你可以追蹤這種思想的發展演變。事實上,我們如今生活的世界沒有哲學,也沒有占主導的哲學觀。因此,技術專家可以為所欲為。他們可以研發改變世界的東西,但沒有人會說,“我們要把它融入某個東西當中”。

                        問:您遇到埃里克·施密特后,他邀請您對谷歌員工發表講話,您說您認為谷歌是對文明的威脅。您為什么會這樣想?

                        基辛格:我不希望哪一個組織壟斷信息的供應。我認為,一家公司能夠提供信息,并且能夠根據它對公眾想要什么信息或認為什么樣的信息可信所做的研究來調整它所供應的信息,這是極其危險的。這樣一來,真相變成相對而言的概念。我當時就是這樣認為的。而他之所以邀請我與他的算法團隊見面,是為了讓我明白,這并非專斷之舉,在為呈現哪些內容所做的選擇背后,有思考和分析。這并沒有打消我對一個私人機構擁有這種權力的擔憂。不過,我正是這樣進入這一領域的。

                        施密特:參觀谷歌的這次經歷讓他思考。等我們開始談論這件事時,基辛格博士說,他非常擔心這批技術給人類及其生存帶來的影響,而技術專家在運用這些技術時卻沒有弄明白它們的影響或歷史。我認為,這樣的擔心是完全正確的。

                        問:許多人覺得您現在或者過去針對技術公司所做的事情——讓人感覺它們并不是真的值得信任,它們為了改善自身經營而采取的許多做法對社會來說未必是好事?紤]到這一點,您認為技術行業領袖在這個新體系中扮演什么角色?

                        基辛格:我認為,技術公司引領大家進入了人類意識的新時期,就像啟蒙運動時期的幾代人在從宗教轉向理性時所發揮的作用,而技術專家正在向我們展示如何將理性與人工智能關聯起來。這在某種意義上是一門不同的學問,因為說到理性,也就是我成長的環境,證據是相互印證的。說到人工智能,最令人震驚的地方在于,你得出了一個正確結論,可是你不知道其中的原因。這是一個全新的挑戰。因此,從某些方面講,他們創造的東西是危險的。但它讓我們的文化向前邁進。如果從來沒有創造出這種技術,我們會不會過得更好?我不知道答案。不過既然它已經存在,我們就必須了解它。而且也不能將它根除。我們已經在這上面消耗太多的精力。

                        人類失去思考能力

                        問:您認為人工智能興起所帶來的主要地緣政治影響是什么?

                        基辛格:我認為我們還沒有深入研究過這個問題。想象一下,中美之間爆發戰爭,你擁有人工智能武器。和所有人工智能技術一樣,這種武器對你計劃好的目標能夠實施更有效的打擊。但它們打擊自己所認定的目標時可能也很有效。因此,如果你說,“A目標是我要打擊的目標”,它們可能會認為別的什么目標更符合這樣的標準。因此,你身處一個有點不確定的世界。其次,因為從來沒有人真正在大規模軍事行動中測試過這些東西,你無法確切地知道雙方的人工智能戰斗機發生互動時會出現什么情形。這樣一來,你所處的世界可能具有徹底的毀滅性,你的做法也存在極大的不確定性。

                        問:所以您擔心的是人工智能過于有效嗎?還有我們不能確切知道它們的行為的原因?

                        基辛格:我這一生大部分時間在研究我所談論的那些問題;在人工智能這個領域,我只研究了四年!吧疃人伎肌庇嬎銠C通過和自己對弈,只用四個小時就學會了下棋。它還下了一盤人類從未見過的棋局。我們目前最好的計算機也只是偶爾能打敗它。如果這種情況發生在其他領域,而這是一種必然,同時也是現實,那可是一件大事,而我們的世界根本沒有為此做好準備。

                        問:這本書提出,由于人工智能進程的推進速度極快,有人擔心人類有可能失去思考、構思和反思的能力。怎么來看待這種擔憂?

                        施密特:我們已經從讀書轉變成聽書,再到既沒時間看,也沒時聞思考、沒時間討論的地步,因為別的東西正應運而生。因此,我認為這種時間和信息的加速的確超出了人類的能力。這是勢不可擋的,大家在抱怨這一點;他們沉迷其中,他們無法思考,連獨自吃飯都做不到了。我認為人類不是生來就可以應對這樣的局面。這讓壓力激素水平之類的東西激增。所以,在極端情況下,信息過載很可能超越我們處理正在發生的種種事情的能力。

                        我一直談到,在這本書中也提到的一點是,你會需要一名助手。就你而言,你是一名記者,有一大堆事情要做,你會需要一臺計算機助手,它會對你說:“這些是當下要做的重要事項。這些是需要思考的問題,搜索一下歷史記錄,會讓你更加高效!爆F在的問題是,你已經非常依賴這種人工智能系統。我們在書中也說了,誰來控制人工智能系統的所作所為?它有偏見怎么辦?如何對出現的情況加以調控?尤其是對年輕人而言,這是個非常令人擔心的地方。

                        假如武器自動發射

                        問:您在書中談到的一點是,人工智能有好的一面和壞的一面。這要表達什么意思?

                        基辛格:我們要說的是,它可能確實會帶來非常大的收益。它可能也是可以管控的。但在對某些方面加以管理上,還存在我們尚未開展研究或者研究得不夠透徹的地方。我仍然感到擔憂。我反對因為這個原因就說我們必須除掉這種技術。它現在已經存在了。重點之一是,我們認為應該創造某種哲學來引導這方面的研究。

                        問:您會建議由誰來形成這種哲學?下一步要做什么?

                        基辛格:我們需要由一些規模不大的團體來提出問題。我在讀研究生時,核武器是新生事物。當時,哈佛大學、麻省理工學院和加州理工學院一些憂心忡忡的教授會在很多個周六下午碰頭,表達自己心中的疑問:答案是什么?我們該如何應對?最后他們有了軍備控制的想法。

                        問:這些團體需不需要在規模上做到國際化?需不需要在聯合國的支持下做這項工作,還是在其他什么人的支持下?

                        施密特:這些事情通常的運作方式是,有規模相對較小、相對精英的群體一直在思考這個問題,他們需要實現對接。比如,目前有牛津大學的人工智能與倫理策略團隊,這是很好的嘗試。世界各地零星存在這類小規模團體。我了解到中國也有一定數量的此類團體。但這些團體沒有實現對接;這只是個開始。所以,如果你相信我們所相信的東西,也就是說十年后,人工智能技術會變得異常強大,那么我們最好從現在就開始考慮這種技術所帶來的影響。

                        我給你舉個我最喜歡的例子,與軍事準則有關。一切都變得更快了。我們不希望看到的局面是,武器會基于它們自己對局勢的分析而自動發射。

                        基辛格:因為實施攻擊的武器可能比人腦的分析速度更快,于是出現了惡性循環。你很想讓武器變得自動,但你又不想讓它過于自動,自動到可以根據你或許無法做出的判斷來采取行動。

                        施密特:所以,當前各個大國之間沒有就這一點展開討論。不過,這是顯而易見的問題。我們圍繞人類速度可及的事物展開了大量討論?墒,當一切發生得太快,超出了人類的速度時,該怎么辦?我們需要就某種上限,相互的設限達成一致,需要就這些系統的最高運行速度達成一致,因為不這樣的話,我們會陷入極其不穩定的局面。

                        避免技術遭到濫用

                        問:可以想見人們會覺得很難接受您會有這樣的觀點。因為谷歌之所以這么成功,就是因為它能夠提供那么多信息,而且速度那么快。許多人會說,你們其實對這個問題的出現起了推波助瀾的作用。

                        施密特:是的,我感到內疚。我們建立了非常非?斓钠脚_。有時它們的速度超出了人類能夠理解的范疇。這是問題所在。

                        問:我們有過領先技術一步的時候嗎?我們不是向來都在新技術到來后才有反應嗎?誠然,我們不理解正在發生的事情?墒侨藗儺敵跻膊焕斫鉃槭裁创蜷_開關,燈會亮起來。出于同樣的道理,許多人并不擔心人工智能的到來。

                        施密特:我非常擔心所有這些技術遭到濫用。我當初沒有料到政府會利用互聯網來干預選舉。我從未想過會有這種事。我錯了。我沒想到互聯網會如此糟糕地被用來推動反疫苗運動。我沒有及時行動。我們下一次不會錯過。我們會事先有所動作。

                        基辛格:如果你提前知道會是這種情況,你會怎么做?

                        施密特:我不知道。我本來可以采取不同的做法。如果我十年前就知道,我本來可以打造不同的產品。我可以用不同的方式游說。我可以用不同的方式發表演講。我可以在事情發生之前給人們敲響警鐘。

                        本文摘自于參考消息



                        相關新聞
                        ·短缺經濟時代再度來臨
                        ·前三季度GDP同比增長9.8%,中國經濟總體保持恢復態勢
                        ·中國重申力挺民營經濟
                        ·國家發展改革委有關負責同志就修訂印發城鎮供水價格管理辦法和定價成本監審辦法答記者問
                        ·美歐數百個湖泊缺氧日益嚴重
                        收藏本頁 打印本頁 關閉本頁

                        首頁 | 關于我們 | 新聞資訊 | 核心業務 | 人力資源 | 聯系我們
                        地址:中國·上海長寧區遵義路100號南豐城B座1711室 郵編:200051
                        網站編輯部郵箱:web@united-water.com ICP備案許可證號:滬ICP備12043202號-1
                         
                        狠狠躁狠狠爱免费视频无码