六月丁香五月婷婷,丁香五月婷婷网,欧美激情网站,日本护士xxxx,禁止18岁天天操夜夜操,18岁禁止1000免费,国产福利无码一区色费

學(xué)習(xí)啦>新聞資訊>科技>

人工智能的危險論文(2)

時間: 坤杰951 分享

  人工智能的危險論文篇二

  人工智能的威脅

  如果《紐約時報》的報道屬實,當(dāng)今的人工智能已經(jīng)發(fā)展到令人無法想象的程度。比如,自動駕駛汽車;蘋果siri 智能語音能夠聽出你的聲音,幫你找到最近的電影院。IBM 公司最近剛剛推出一款“冒險”智能軟件取代了“沃森”系統(tǒng)用于醫(yī)療作用,最初是用于培訓(xùn)醫(yī)學(xué)院學(xué)生,最終將運用于臨床治療階段。現(xiàn)在,幾乎不到一個月就有一款最新的人工智能產(chǎn)品問世。不過,其中有許多最新的發(fā)明還不成熟,據(jù)我之前的分析,目前我們?nèi)匀粵]有發(fā)明出具有想象力,天然語言處理系統(tǒng)的智能,或是智能創(chuàng)造其他機器的能力,而我們在開發(fā)人類大腦的道路上已經(jīng)停滯不前了。

  在某種程度上,支持者與反對者之間的區(qū)別就是時間期限。比如,未來學(xué)家、發(fā)明家雷蒙德・庫茲韋爾就認(rèn)為20年智能就能研發(fā)出真正接近人類智力水平的人工智能。而我認(rèn)為這個過程起碼現(xiàn)在,幾乎不到一個月就有一款最新的人工智能產(chǎn)品問世,而我們在開發(fā)人類大腦的道路上已經(jīng)停滯不前了人工智能的威脅格力・馬庫斯/ 文 李雨蒙/ 譯需要20 年,尤其要考慮到創(chuàng)造常識(正常思維)的困難,發(fā)明人工智能的挑戰(zhàn),還有軟件技術(shù),都比庫茲韋爾預(yù)測的要困難得多。

  然而,從今往后的一個世紀(jì)里,沒有人會在意人工智能的發(fā)展需要多久,只會關(guān)心將會出現(xiàn)哪些先進的人工智能?;蛟S在這個世紀(jì)末,人工智能就會變得比人類更加智慧――不僅可以解決國際象棋、瑣碎小事等等,基本可以處理所有的事物,無論從數(shù)學(xué)、工廠還是科學(xué)和醫(yī)藥。還剩下一小部分創(chuàng)造類工作留給人類,比如演員,作家或是其他創(chuàng)意類工作。最終的電腦系統(tǒng)可以完成自我編程,獲取大量的最新信息。我們這些“碳基生物”的模糊印象,他們能夠在分分鐘就分析處理完成,也不需要長時間的睡眠或休息。

  對于支持者來說,人工智能的未來充滿希望。庫茲韋爾就曾撰文發(fā)表自己一個大膽的設(shè)想,就是人類與智能機器結(jié)合,將人類的靈魂上傳到人工智能中,使我們的靈魂永生;彼得・迪亞芒蒂斯則認(rèn)為人工智能是開啟“富裕時代”,擁有富足食物、水源、消費工具的重要因素。不過,反對者像埃里克・布林約爾松和我很擔(dān)憂機器人職業(yè)化和人工智能帶來的隱患,即使不去考慮高級人工智能對勞動力市場的影響,功能強大的智能機器也會威脅人類的生活,與人類爭奪有限的資源。

  大多數(shù)人把這種擔(dān)心看作是科幻小說里的蠢話――像《終結(jié)者》和《黑客帝國》這類。在一定程度上,我們需要未來很長一段時間做好打算,我們要擔(dān)心小行星會撞地球,化石燃料產(chǎn)量下降,全球變暖等問題,而不用擔(dān)心機器人問題。可是,詹姆斯・巴雷特的黑暗系新書《我們的最終發(fā)明:人工智能和人類時代的終結(jié)》,描述了一種嚴(yán)峻的情況,我們至少應(yīng)該有所思考。

  如果機器最終取代了人類――正如在人工智能領(lǐng)域工作的人所堅信的那樣,真正的問題在于價值觀:我們?nèi)绾伟褍r值觀輸入機器中,當(dāng)它們的價值觀與我們的價值觀發(fā)生了很大的沖突時,我們該如何和這些機器協(xié)商呢?牛津的哲學(xué)家尼克・博斯特羅認(rèn)為:我們不能樂觀地假設(shè),超級智能一定會分享人類的智慧和智能發(fā)展形成的價值觀――對科學(xué)的求知欲,對他人的關(guān)心和仁慈,精神啟發(fā)和沉思,克制物質(zhì)占有欲,高雅的文化品位,對感受簡單生活的快樂,謙虛無私等等。或許通過專門的訓(xùn)練,能夠創(chuàng)造出擁有這些價值觀的超級智能,或是珍惜人類財富和高尚道德的超級智能,或是設(shè)計者想要它擁有一些復(fù)雜目標(biāo)的智能。這是可能的――可能從技術(shù)上說更簡單――打造一個能夠把最終價值都放在計算圓周率小數(shù)上的超級智能。

  英國控制論學(xué)者凱文・沃里克曾問道:“當(dāng)機器不在我們?nèi)祟愃幍乃季S次元中思考時,你如何跟它理論,如何與它做交易,如何能明白它的想法?”

  如果說巴雷特黑暗系理論有漏洞的話,那就是他未經(jīng)思考就提出的假設(shè):如果機器人聰明到可以下棋,那它可能也會“想要制造宇宙飛船”――在任何足夠復(fù)雜,有目標(biāo)驅(qū)動的系統(tǒng)中都是天生具有自我保護和獲取資源的本能?,F(xiàn)在大部分機器都非常先進,比如,IBM公司的深藍(lán)系列電腦,但是目前它們還沒有顯示出想要獲得資源的興趣。

  可是,在我們感到沾沾自喜,確定無需擔(dān)心時,別忘了有一點非常重要:我們要意識到隨著機器越來越聰明,它們的目標(biāo)也是會變化的。一旦電腦能夠有效地重新給自己編程,成功地提升自己的性能,達到所謂的“技術(shù)奇點”或“智能爆炸”,那么我們就不能忽視機器在與人類搶奪資源和自我保護的較量中會有勝過人類的風(fēng)險。

  在巴雷特書中,最鮮明的觀點之一是來源于著名的系列人工智能企業(yè)家丹尼・希利斯,他把即將到來的轉(zhuǎn)變比作生物進化史上最重大的轉(zhuǎn)變之一:“我們現(xiàn)在達到的高度就像是一個單細(xì)胞有機體轉(zhuǎn)變?yōu)槎嗉?xì)胞有機體的高度。我們是變形蟲,我們不清楚自己在創(chuàng)造的到底是個什么東西。”

  無論怎樣,人工智能的進步已經(jīng)達到了我們從未想過的危險。德雷塞爾大學(xué)的電腦風(fēng)險專家加格跟我說:隨著因特網(wǎng)時代的到來和大數(shù)據(jù)時代的爆炸,“人工智能已經(jīng)收集了有關(guān)我們的許多數(shù)據(jù),并輸入計算程序,做出預(yù)測”,“ 我們無法知道數(shù)據(jù)被收集的時間,沒法保證收集的數(shù)據(jù)信息是準(zhǔn)確的,沒法更新信息,或提供必要的信息背景”。甚至在20 年前,幾乎沒有人會預(yù)想到這種風(fēng)險。前方還會有怎樣的危險呢?沒有人真的知道,但是巴雷特提出的問題卻值得我們思考。

人工智能的危險論文相關(guān)文章:

1.人工智能科技論文

2.人工智能小論文

3.淺談計算機人工智能論文(2)

4.淺談計算機人工智能論文

5.計算機網(wǎng)絡(luò)安全方面論文

2415587