国产精品成人一区二区三区,7777色鬼xxxx欧美色妇,国产精品久久久久久人妻精品,欧美精品中文字幕亚洲专区,欧美精品xxxxbbbb

精彩!尤瓦爾vs李飛飛:一場關(guān)于“AI威脅論”的終極對話

尤瓦爾vs李飛飛:一場關(guān)于“AI威脅論”的終極對話

尤瓦爾·赫拉利和李飛飛在斯坦福大學(xué)展開了一場別開生面的對話,他們所提出的問題已經(jīng)遠(yuǎn)遠(yuǎn)超出了我們可以解答的范圍?!哆B線》雜志主編尼古拉斯?湯普森在座無虛席的紀(jì)念禮堂主持了這場90分鐘的談話。

赫拉利(Harari)是耶路撒冷希伯來大學(xué)的歷史教授,曾兩次獲得波隆斯基創(chuàng)意獎,他是國際暢銷書《智人:人類簡史》和《上帝的人:未來簡史》的作者。

李飛飛是著名的人工智能研究者,工程師和計算機(jī)科學(xué)教授。她是當(dāng)今人工智能領(lǐng)域最多產(chǎn)的學(xué)者之一,在深度學(xué)習(xí)和計算機(jī)視覺方面的成果被世界各地的公司和研究團(tuán)隊借鑒和使用。其最著名的角色研究成果是創(chuàng)建了ImageNet,這是一個在計算機(jī)視覺應(yīng)用程序中被廣泛使用的1400萬圖像手工注釋數(shù)據(jù)集。

他們談到了一些關(guān)于人工智能和技術(shù)的重要話題,包括我們是否仍然可以相信人類的能動性;人工智能時代的民主是怎樣的形式;以及人工智能是否最終會威脅人類或是幫助人類。

李飛飛和赫拉利并沒有把我們引向那些晦澀難懂的話題上,而是要求我們認(rèn)真思考更多重要的問題:這些問題不但反映了人工智能技術(shù)對個人自由和選擇的影響,也反映了其對當(dāng)前社會中的法律,經(jīng)濟(jì)和政治制度的影響。

這四個相關(guān)問題試圖幫助我們?nèi)ナ崂鞟I對個人的影響:

重新思考自由意志——尤瓦爾·赫拉利(Yuval Noah Harari)

愛情和人工智能的極限——李飛飛

將自我意識外包給人工智能?——尤瓦爾·赫拉利(Yuval Noah Harari)

處于人工智能核心地位的人類,

像許多看到它的人一樣,我?guī)е环N緊迫感重復(fù)著這段對話。這些在學(xué)界極具爭議的話題也是AI從業(yè)者,政策制定者以及公眾都應(yīng)該思考的。

而我們需要迅速采取行動。“工程師們不會等待。即使工程師愿意等待,他們背后的投資者也不會等待。因此,這意味著我們并沒有太多的時間,”赫拉利警告說。

1、

尤瓦爾vs李飛飛:一場關(guān)于“AI威脅論”的終極對話

如果你不能信任客戶,如果你不信任自己的感受,那么你信任誰?——尤瓦爾·赫拉利(Yuval Noah Harari)

討論進(jìn)行到自由意志和能動性這一深奧而又復(fù)雜的話題上,完全跳過了淺顯的內(nèi)容。

對自由意志有效性的質(zhì)疑乍一看似乎是一種無關(guān)緊要的理論探索——完全超出了工程學(xué)科的范圍。但事實上,許多頗為激烈的討論最后都回到了哲學(xué)家們爭論了數(shù)千年的話題之上。

只是這一次,我們擁有了一個全新的視角——正如赫拉利所指出的,我們本身擁有的許多根深蒂固的觀念正在受到挑戰(zhàn),“不是哲學(xué)思想,而是實用技術(shù)。”

赫拉利在這十年中的大部分時間里都在質(zhì)疑自由意志和個體能動性的核心概念。

他并不是孤身一人。由于測量神經(jīng)活動的技術(shù)進(jìn)步,許多神經(jīng)心理學(xué)專家都對自由意志發(fā)起了新的抨擊。

這導(dǎo)致許多頂級神經(jīng)科學(xué)家懷疑我們的決策自由。

“我們只是在我們既定思維中處理信息,且它會機(jī)械地引導(dǎo)我們的行為。因此,我們認(rèn)為我們有意識做出的那些的決定,實際上只是一種幻覺,可以歸結(jié)為我們的大腦想要我們要做的事情。“

——漢娜·克里克洛(Hannah Crichlow),普林斯頓大學(xué)著名神經(jīng)學(xué)家,《命運(yùn)科學(xué)》(The Science of Fate)一書的作者。

但是,無論科學(xué)怎樣的進(jìn)步和成熟,我們的自由意志終究不能擺脫被操控的命運(yùn)。赫拉利稱之為“入侵人類”——這對我們的社會構(gòu)成了巨大風(fēng)險。

某些組織可能會努力“創(chuàng)造一種算法,它能比我更了解我自己,從而能夠操縱我、提升我甚至取代我。”這將是我們的挑戰(zhàn)——不僅要決定這些指令發(fā)展或替換的應(yīng)該是什么,更重要的是由誰來決定。

我們可能會想,我們應(yīng)當(dāng)如何決定人類進(jìn)化的方向。

“誰來定義這些優(yōu)化和性能提升的好與壞呢?”那么,如果“什么是好”這個問題我們都沒有答案,那又要如何決定該強(qiáng)化哪個方面呢?這是一個非常深刻的倫理問題和哲學(xué)問題,哲學(xué)家們已經(jīng)辯論了數(shù)千年。“話說回來,我們需要加強(qiáng)哪些優(yōu)秀品質(zhì)呢?”赫拉利問道。

我們中的大多數(shù)人都會很自然地“求助于傳統(tǒng)的人文主義思想”,優(yōu)先考慮個人的選擇和自由。然而,赫拉利警告稱:“當(dāng)一種可以大規(guī)模攻擊人類的技術(shù)出現(xiàn)時,這一切都不管用了。”

如果人類的能動性和自由意志這一概念本身正處于爭論之中,那么就很難去定義AI技術(shù)可以被用在哪里。這也同時影響到了我們生活的各個方面——我們選擇做什么,我們可能買什么,我們可能去哪里,我們會以何種方式進(jìn)行投票。而目前還不能決定究竟應(yīng)該由誰來決定技術(shù)的使用范圍。

由于生物技術(shù)(B)、計算能力(C)和數(shù)據(jù)分析(D)的共同發(fā)展,這種技術(shù)界限不斷模糊的發(fā)展?fàn)顩r讓我們面臨一個重大問題,赫拉利認(rèn)為這些技術(shù)甚至已經(jīng)可以攻擊人類了(HH)。

數(shù)學(xué)家把它概括為B * C * D = HH。

隨著現(xiàn)代技術(shù)的發(fā)展,入侵人類可能成為一種非?,F(xiàn)實的可能性。“這不僅僅是討論開始的時刻,也是我們直面挑戰(zhàn)的時刻”李飛飛補(bǔ)充說。

如果存在操縱,那么如何保證政府、商業(yè)和個人自由的體系依然合乎法律的要求?

愛與人工智能的

2、

尤瓦爾vs李飛飛:一場關(guān)于“AI威脅論”的終極對話

愛情也是可以被“黑”的嗎? ——李飛飛

如果人類可以被“黑客”攻擊,我們的行為和信仰可以被操縱,那么這種微妙控制的極限是什么?

我們可能會承認(rèn),我們可以通過一些微小的嘗試來控制自己——當(dāng)走進(jìn)一家剛做過肉桂面包的面包店時,誰不會突然想吃肉桂面包呢?——但我們控制行為的方式肯定是有限度的。

在這一點(diǎn)上,似乎沒有人能夠確切知道這些操作的極限是什么。

然而,操縱的策略是眾所周知的。犯罪分子和行騙者會利用這些工具,使他們既因勇敢無畏而受到崇敬,也因其故事在媒體上傳播和被電影、文學(xué)及電視講述而受到譴責(zé)。

總的來說,我們不相信自己是很容易被操縱的人。相反,我們認(rèn)為那些被操縱的人是少數(shù)愚蠢的人。“最容易被操縱的人是那些相信自由意志的人,因為他們認(rèn)為自己不會被操縱,”赫拉利總結(jié)道。

將愛武器化作為操縱的潛在手段不僅是可能的,而且有充分的證據(jù)可以證明。這一主題與歷史悠久的愛情騙局是一致的;我們很多人都聽說過“異地戀的人因為一些小緊急情況需要突然大量的錢”。在去年詐取美國人1.43億美元的所有騙局中,愛情騙局是最“成功”的。

哥倫比亞大學(xué)心理學(xué)家、《自信游戲》(The Confidence Game)一書的作者瑪麗亞?科尼科娃(Maria Konnikova)提醒我們,操縱“首先是通過情緒來完成的。”這讓我們處于一種脆弱的狀態(tài),因為“至少在那一刻,感覺取代了思考。”

畢竟,控制系統(tǒng)——不管是不是人工智能——并不需要通過體驗愛來控制人類與他人聯(lián)系和親近的能力。赫拉利解釋說:“被操縱愛情和實際感受到的愛情是兩碼事。”

在不降低人類愛情重要性的前提下,生物學(xué)和神經(jīng)化學(xué)成分已經(jīng)得到了很好的研究。

考慮到我們每個人被提供的信息量越來越大,我們對個體的生理和心理習(xí)性的了解也越來越深入,再加上分析大量數(shù)據(jù)的成本越來越低,我們不能忽視這種更加昂貴的騙局出現(xiàn)的可能性。這些騙局利用了非常真實的情感,比如孤獨(dú)、寂寞以及迫切想要與他人建立聯(lián)系的渴望。

我們都容易受到這種操縱??颇峥仆尢嵝盐覀儯?ldquo;我們希望相信他們告訴我們的東西。”

在數(shù)據(jù)科學(xué)和技術(shù)快速發(fā)展的時代背景下,甚少有人能夠?qū)@種技術(shù)極限有著明確的判斷和定義。但李飛飛很樂觀:“我想確保在座的每一位都認(rèn)識到,我們離那個目標(biāo)非常、非常、非常遠(yuǎn),因為這項技術(shù)還處于萌芽階段。”然而,風(fēng)險越來越大,現(xiàn)狀還能持續(xù)多久?危機(jī)還有多久到來?

正如李飛飛所提到的的:“我認(rèn)為你確實凸顯了解決這場潛在危機(jī)的緊迫性和重要性。但我認(rèn)為,面對這種情況,我們更需要的是采取行動。”

3、將自我意識外包給人工智能

尤瓦爾vs李飛飛:一場關(guān)于“AI威脅論”的終極對話

生活在一個從算法中了解自身重要信息的世界意味著什么? ——尤瓦爾·赫拉利

幾千年來,人類一直在將我們大腦的一些功能外包出去:比如寫作使我們能夠保持更加準(zhǔn)確的記錄,但并不是依賴于我們的記憶;導(dǎo)航從神話傳說和星圖發(fā)展到地圖和GPS。

但有了人工智能,我們就有了一個革命性的機(jī)遇:如果自我意識是人類將要外包給技術(shù)的東西之一,那會怎樣?

赫拉利講述了一個關(guān)于他自己如何進(jìn)行發(fā)現(xiàn)自我的故事,他說自己直到20多歲才知道自己是同性戀。這個故事引人深思,我們都在努力看到自己的盲點(diǎn)。“我直到21歲才意識到自己是同性戀?;叵肫鹉嵌螘r間,我不知道是15歲還是17歲,在那時候就應(yīng)該表現(xiàn)的很明顯了,但我卻意識不到。”

赫拉利繼續(xù)說道:“但是現(xiàn)在人工智能,即使是今天非常愚蠢的人工智能,也不會錯過它。”這開辟了一個非常有趣的新可能性:或許算法會知道一些我們都不知道的,關(guān)于我們自身的事情?

在人工智能發(fā)展的這幾十年間,這一直是一個誘人的想法。

“我把我所有的錢都押在一個賭注上——我們建造機(jī)器人的原因與我們做其他類型的科學(xué)和藝術(shù)的原因相同,因為我們知道一些我們以前不知道的重要事情,甚至我們可以確定我們已經(jīng)將這些知識拋之腦后,將它浪費(fèi)。簡單地說,就是以一種新的方式看待自己。”

——?帕梅拉·麥考達(dá)克(Pamela McCorduck),著名的人工智能歷史學(xué)家,《思考的機(jī)器》(Machines Who Think)一書的作者

在今天,利用我們所擁有的的數(shù)據(jù),我們可能更早地診斷出從抑郁癥到癌癥等各種不同的疾病,其結(jié)果也會對我們的生活產(chǎn)生很有意義的影響。

利用已有數(shù)據(jù)去探索除了關(guān)于身心健康之外的其他領(lǐng)域的新事物確實是一件令人興奮的事情。畢竟,無論文化、時代和地位如何變幻,人類所經(jīng)歷的某些事情是無法改變的。

隨著分析方法變得越來越先進(jìn),可用的數(shù)據(jù)越來越多,我們可以了解到,我們與朋友,鄰居甚至生活在全球各地的其他人竟然擁有著相似度極高的生活方式?

然而,我們前進(jìn)的路上,仍然存在著兩項挑戰(zhàn)。

把我們的信息交給一種算法,即使是非常聰明的算法,也是相當(dāng)危險的,尤其是當(dāng)它使質(zhì)疑和驗證變得困難時。

“一旦你把某個東西打扮成一個算法或沾染一點(diǎn)人工智能,它就會帶上這種權(quán)威的氣息,讓人很難反駁。

——漢娜·弗萊(Hannah Fry,),著名的倫敦大學(xué)學(xué)院數(shù)學(xué)家,《你好,世界》的作者。

如果一個算法預(yù)測我們患了癌癥,我們可以進(jìn)行檢查來驗證,但如果它告訴我們一些更模糊的東西,比如我們是否受歡迎(或不受歡迎),我們可能傾向于認(rèn)為這是真的,因為我們沒有辦法驗證它。而由于對潛在錯誤算法的錯誤信任,可能會導(dǎo)致我們做出截然不同的決定,弗萊指出,我們可能會相信算法的說法,它甚至凌駕于我們的個人判斷之上。

她講述了一車游客的故事:“他們試圖跟著導(dǎo)航的指令,開車越過溪流以達(dá)到他們的目的地,但事實卻是他們都落了水,等待營救。”

如果我們的自我認(rèn)知被扭曲了,誰會來拯救我們呢?

此外,使用數(shù)據(jù)將他人的經(jīng)驗和自己的處境聯(lián)系起來的做法可能并不可行,因為算法并不與你分享一些他人已知的相關(guān)信息。

“如果算法不與你共享信息,而是與廣告商或者政府共享信息,會發(fā)生什么?”赫拉利問道。

即便是現(xiàn)在,我們在社交媒體上的信息也被用來為我們提供“相關(guān)”廣告,而我們才剛剛了解是誰在購買我們的信息。

赫拉利說:“這是一個很好的警示案例,因為它已經(jīng)發(fā)生了。”

人工智能被用來預(yù)測我們是否會辭職或與另一半分手。這兩個都是非常私人的決定,我們中的許多人甚至都不愿意讓朋友知道,更不用說非個人組織了。

李飛飛質(zhì)疑算法的這種方式是不是會比我們自己內(nèi)省還要好。“我也并不能十分確定!”她說,“但這給了我們希望,我們或許能夠在還有時間的時候,更慎重的考慮一下如何應(yīng)對這其中一些挑戰(zhàn)。”

“人類從發(fā)現(xiàn)火開始,創(chuàng)造的任何技術(shù)都是一把雙刃劍。因此,它可以改善生活、工作和社會,但也會帶來危險,人工智能也同樣有著危險”她提醒我們。

處于

4、

尤瓦爾vs李飛飛:一場關(guān)于“AI威脅論”的終極對話

我們能否以“人本位”的精神,重新定義在人工智能技術(shù)支持下所搭建的教育、研究和對話體系? ——李飛飛

在如此多相關(guān)學(xué)科參與下的討論中,李為我們提供了一個開放式的巧妙想法,意圖開始引導(dǎo)我們解決所面臨的一些問題:以“人本位”的方式對人工智能進(jìn)行重構(gòu)。

李飛飛已經(jīng)開始在斯坦福大學(xué)進(jìn)行改革,其目標(biāo)很明確——為所有規(guī)模和來源的組織提供一個通用的功能模板。

她建立了斯坦福大學(xué)以“人本位”思想指導(dǎo)的的人工智能(HAI)研究所,來自不同領(lǐng)域的個人聚集在一起,開展新的合作對話。

該研究所有三個原則:

1.要慎重考慮我們希望AI成為什么樣的“人”;

2.鼓勵多學(xué)科合作研究;

3.專注于人性的增強(qiáng)與提升。

“我們不一定非要在今天找到一個解決方案,但我們會與人文學(xué)者、哲學(xué)家、歷史學(xué)家、政治科學(xué)家、經(jīng)濟(jì)學(xué)家、倫理學(xué)家、法律學(xué)者、神經(jīng)學(xué)家、心理學(xué)家,以及更多的其他領(lǐng)域的研究者們一起討論和探尋人工智能發(fā)展的下一步應(yīng)該怎么走。”李飛飛說道

這一建議源于研究人員和從業(yè)人員在獲得和保持公眾信任、提供積極的用戶體驗以及如何用相對思慮周全的措施消除人工智能所帶來的恐慌等方面所面臨的挑戰(zhàn)。

在人工智能的領(lǐng)域中制定一個明確的目標(biāo),是將我們都團(tuán)結(jié)起來所邁出的重要一步,而且不同學(xué)科之間的交叉也會變得越來越具有吸引力。

“這正是為什么我們認(rèn)為人工智能的新篇章需要通過人文主義者,社會科學(xué)家,商業(yè)領(lǐng)袖,民間社會和政府的共同努力來一起書寫。”李強(qiáng)調(diào)。

但我們已經(jīng)走到了十字路口。

事實上,我們今天面臨的許多倫理問題都源于工程師們做出的一些決定,“快速行動,打破常規(guī)”的風(fēng)氣最終導(dǎo)致了真正的毀滅。

在科技行業(yè)工作可能會讓創(chuàng)造者看不到他們所創(chuàng)造的技術(shù)帶來的后果和影響。有無數(shù)意想不到的結(jié)果:比如大型在線零售商排擠小企業(yè),從而改變我們城市的產(chǎn)業(yè)架構(gòu)等。

我們?nèi)绾纹胶馕覀儗?chuàng)新的渴望和隨之而來的風(fēng)險呢?如果公司在未慎重考慮AI產(chǎn)品所帶來的一些后果的情況下而獲得了成功,我們是否應(yīng)采取措施來抑制他的發(fā)展?

李飛飛對“將道德規(guī)范納入軟件學(xué)領(lǐng)域”持樂觀態(tài)度。

“以人為本的人工智能需要由下一代技術(shù)專家來開發(fā),他們上過(斯坦福大學(xué)政治學(xué)教授)羅布?賴希(Rob Reich)的《計算機(jī)、倫理與公共政策》(Computers, Ethics and Public Policy)等課程,會思考其中的倫理含義,也會顧及人類福祉。”

無論這個目標(biāo)有多簡單,人工智能領(lǐng)域中的很多人都會質(zhì)疑它是否也是最具挑戰(zhàn)性的那個目標(biāo)。

“我們不可能單獨(dú)作為技術(shù)專家來做這件事。”李飛飛警告說。

我們?nèi)绾握f服那些在人工智能領(lǐng)域工作的技術(shù)人員,尤其是那些可能不想關(guān)心他們工作的社會影響等模糊問題的人:他們應(yīng)該關(guān)心這些事情!而且,這是否應(yīng)當(dāng)僅僅是一種期望?我們是否需要在整個行業(yè)中為每個角色提供道德維度?李飛飛并不太確定。

“我們中的一些審慎者甚至也不知所措。所以倫理學(xué)家和哲學(xué)家應(yīng)該參與進(jìn)來,和我們一起解決這些問題。”

盡管在這個領(lǐng)域工作的前瞻性人士中,很少有人會忽視這個問題的重要性,但它所要求的標(biāo)準(zhǔn)不應(yīng)被最小化。在技術(shù)領(lǐng)域中,對于任何非技術(shù)或與技術(shù)相關(guān)的話題一直存在著很大的蔑視,人工智能領(lǐng)域會尊重這些新視角的重要性嗎?還是會對任何不理解反向傳播的人不屑一顧?

當(dāng)被問及赫拉利的作品是否會出現(xiàn)在她的教學(xué)大綱上時,李飛飛打趣道:“對不起,不在我的教學(xué)大綱上,我教的是深度學(xué)習(xí),他的書里并沒有方程式。”

結(jié)語

這次談話恰逢其時的提出了一些重要的新問題:關(guān)于人工智能在未來幾十年對我們個人的影響。在不能精確把握人工智能受控范圍的前提下,我們?nèi)耘f需要降低被其反向威脅的可能性,赫拉利敦促我們專注于自我意識:

“這是所有哲學(xué)書籍中最古老的忠告:了解你自己。我們從蘇格拉底、孔子、佛陀那里聽到:認(rèn)識你自己。但有一個不同之處,那就是現(xiàn)在有了競爭,你要和這些大公司和政府競爭。如果他們比你更了解你自己,游戲就結(jié)束了。”

但正如李飛飛所建議的,合作是必要的。這項工作已開始在世界各地的許多組織中逐漸形成。赫拉利和李飛飛之間的對話也標(biāo)志著人工智能領(lǐng)域中,一種新型合作關(guān)系的誕生。

“我們開啟了人文主義者和技術(shù)專家之間的對話,我希望看到更多這樣的對話。”她說。