六月丁香五月婷婷,丁香五月婷婷网,欧美激情网站,日本护士xxxx,禁止18岁天天操夜夜操,18岁禁止1000免费,国产福利无码一区色费

學習啦>新聞資訊>科技>

人工智能的利弊論文

時間: 坤杰951 分享

  強大的電腦科技將重新規(guī)劃人類的未來,但如何才能確保其帶來的利大于弊呢?以下是學習啦小編整理分享的關于人工智能的利弊論文的相關文章,歡迎閱讀!

  人工智能的利弊論文篇一

  人工智能的曙光

  強大的電腦科技將重新規(guī)劃人類的未來,但如何才能確保其帶來的好處會多于危險呢?

  “世上真的有上帝嗎?”科學家用顫抖的聲音問道。

  “現(xiàn)在有了。”世界上最聰明的人工智能電腦回答。話畢,一道電光閃過它的電源插頭――人們再也關不掉它了。

  這是斯蒂芬・霍金在出席脫口秀時闡述的一則“恐怖故事”,而在前不久的倫敦“谷歌時代精神”大會上,霍金平靜地描述了人類的命運:“在未來100年內(nèi),結合人工智能的計算機將會變得比人類更聰明。”

  斯蒂芬・霍金警示道:“人工智能的全面發(fā)展可能為讓人類征途畫上句號。”特斯拉汽車公司與美國太空探索技術公司CEO伊隆・馬斯克則擔心人工智能可能會成為人類生存所要面臨的最大威脅。持有同樣看法的還有微軟創(chuàng)始人比爾・蓋茨。今年年初,他們都在在一封提倡控制人工智能發(fā)展的公開信上簽下自己的名字。

  人們害怕自己所創(chuàng)造出來的人工智能會反客為主成為自己的主宰,或是劊子手――雖然這種觀點還很新,但已然成為一種不可忽視的新趨勢。畢竟,這是由著名的宇宙論者,硅谷企業(yè)家以及微軟的創(chuàng)始人,可能還是盧德派分子(強烈反對提高機械化和自動化者)提出的,而這一觀點也被用來反對諸如谷歌、微軟等大公司對于人工智能開發(fā)的巨大投資。隨著超級電腦的日益普及,機器人在各個戰(zhàn)場的無往不勝,只把人工智能和機器人定義在科學領域就顯得太自欺欺人了,現(xiàn)在的問題是,我們究竟該擔心什么?

  你教我語言以及……

  首先我們需要了解一下電腦現(xiàn)在能做什么,以及它們未來可能能做什么。得益于加工工藝的發(fā)展以及越來越豐富的數(shù)碼數(shù)據(jù),人工智能的能力得到了爆炸性增長。通過模仿人類大腦的神經(jīng)元以及攝入大量的數(shù)據(jù),如今的“深度學習”系統(tǒng)可以教會他們自己完成諸多任務。從圖形識別到翻譯,人工智能幾乎可以和人類做的一樣好。結局就是,那些需要動腦完成的游戲,如“青蛙過河”,現(xiàn)在已經(jīng)可以通過電腦程序解決。2014年由Facebook公司推出的DeepFace演算系統(tǒng),就可以從圖片中識別出人臉,識別率高達97%。

  尤為關鍵的是,這項能力是有特定用途的。如今的人工智能是通過簡單粗暴的數(shù)值計算來偽裝成“智能”,而不是像人類的思想一樣是在自主地思考,或是出于對某物的興趣和渴望進行思考?,F(xiàn)在的電腦智能尚無法像人類那樣擁有靈活的推測判斷的能力。

  不過,人工智能已有足夠的力量給人類的生活帶來翻天覆地的影響。它可以與人類互補,從而增強人類的能力。就拿國際象棋來說,電腦現(xiàn)在已經(jīng)玩得比任何人都好,雖然世界頂尖的國際象棋大師并不是機器,但被世界棋王卡斯帕洛夫稱為“半人馬”的就是混合著人類與演算程序的隊伍。這樣一種集成形態(tài)會逐漸成為人機追逐賽的常態(tài):有了人工智能的幫助,醫(yī)生可以更方便地標記癌癥;智能手機中的語音識別系統(tǒng)可以將互聯(lián)網(wǎng)帶給數(shù)百萬發(fā)展中國家的文盲人群;數(shù)字助理會對學術研究提出有用的假說;圖像分類系統(tǒng)讓可穿戴電腦將真實世界的有用信息直觀呈現(xiàn)在人們的眼前。

  從短期來看,不是所有的情況都是樂觀的。比如,人工智能又喚醒了機械設備對于國家安全的作用。無論是專制國家還是民主國家,這種可以監(jiān)視上億個場景,并且可以通過人臉或聲音從人群中識別出每一個市民的能力,都會對民眾自由構成重大的威脅。

  即使整個社會都能從人工智能那兒得到巨大的好處,仍會有許多個人遭受損失。曾經(jīng),做著如今電腦們做的活兒的是苦工們,而且大多是女性:她們?yōu)樽约旱纳纤緜冏鲋鵁o盡的計算工作。而就像現(xiàn)在電腦替代了她們一樣,人工智能可能會讓整個白領階層都丟了工作。當然,更多的教育和訓練會有所幫助,而借助人工智能產(chǎn)生的財富也會被用于創(chuàng)造新的工作,不過工人們注定會失去位置。

  監(jiān)視手段和混亂并不是霍金、馬斯克和蓋茨所擔心的,也不是好萊塢近期密集推出未來人工智能電影的原因。他們所擔心的是更長遠、更具啟示的問題:這些具有超人的智慧與能力的機器人們會最終與人類作對。

  不過,離這樣的人工智能出現(xiàn)還有很長一段路要走,而實際上它們可能根本不會被創(chuàng)造出來。即使對大腦進行了長達一個世紀之久的研究,心理學家、神經(jīng)學家、社會學家以及哲學家們?nèi)耘f無法理解大腦是由什么構成的,或者它是什么。

  我知道如何詛咒

  不過即使霍金認為人工智能很有希望將實現(xiàn),對于科學家們而言這仍是仍重而道遠,必須小心謹慎地進行規(guī)劃。其實這一過程比看上去要容易,尤其是人類已經(jīng)創(chuàng)造出了有著超人能力和沒有共同利益的自治實體,并且使用了很長一段時間。政府官僚、市場以及軍隊都可以完成獨立的、無組織的人類所不能完成的任務。而這些團體都如人工智能一樣,可以自主運作,承擔自己的生活,以及如果沒有法律法規(guī)的管轄,它們都會對社會造成危害。

  這些相似點應該能夠安撫人們對于未來人工智能的恐懼,而這同時也為科學家如何安全地開發(fā)人工智能提出了實質(zhì)性的建議。就如同軍隊需要平民的監(jiān)督,市場需要被調(diào)節(jié),以及政府需要公開化和透明化一樣,人工智能系統(tǒng)也需要公開檢驗。而由于在設計系統(tǒng)時不可能預見到所有的情況及應對方法,所以該系統(tǒng)也一定要有一個關閉按鈕。這些措施也能在不妨礙人工智能系統(tǒng)開發(fā)的同時有效地約束它。從核武器到交通規(guī)則,人類有能力用巧妙的技術和合法的約束控制這些強大的科技革新。

  “人類最終會創(chuàng)造出一種自主的非人類的智能”這一觀點就像幽靈一樣一直縈繞在人們心頭。這實在是太特別了,讓人們不斷地為其爭論。是的,這里危機重重,不過這也不能掩蓋,人工智能的曙光所帶來的巨大利益。

下一頁分享更優(yōu)秀的<<<人工智能的利弊論文

2415981