關于人類與人工智能的作文
人類與人工智能的發(fā)展如何?那么關于人類與人工智能的作文有哪些呢?下面是學習啦小編為你整理的關于人類與人工智能的作文,供大家閱覽!
人類與人工智能的作文:人工智能距離消滅人類還有多遠
特斯拉汽車公司的創(chuàng)始人之一埃倫•馬斯克最近患上了“科技恐懼癥”,他在社交網(wǎng)絡上連發(fā)兩條聳人言論,警告人類要對人工智能特別小心,因為人工智能在未來很可能比核武器還要危險。
埃倫•馬斯克冷不丁地拋出這樣的言論,是因為不久前看了一本名為《我們最后的發(fā)明:人工智能及人類時代的終結》的書,這本書的作者認為,人工智能的出現(xiàn)將會為人類帶來滅頂之災。暫且不說這種可能性有多大,僅從目前來看,人工智能對待人類的態(tài)度還算友善。
比方說,前不久被微信列為不受歡迎名單的微軟小冰,不久將以小冰二代的身份 重返微信平臺,而且還帶來了一項特殊功能——控制智能家居,假如你在微信中對小冰下達關燈的指令,家中的智能電燈就能自動關閉。假如有一天小冰不高興了,頂多不聽你的指揮,拒絕開燈,尚不至于要了你的命。當然,如果未來你家的電鋸也受小冰控制,那就不好說了。
所以,我說目前人工智能對待人類的態(tài)度還算友善,這句話還隱藏另外一個意思,就是即便它不友善,現(xiàn)在也還沒到對人類生命構成威脅的時候。 不過,埃倫•馬斯克的擔憂也并非杞人憂天,我認為人工智能哪怕具備以下四點中的一點,就足以對人類帶來不可想象的后果。
一、通過圖靈測試
著名的“圖靈測試”說的是假如一臺電腦能在5分鐘內(nèi)回答人類提出的一系列問題,且超過30%的答案讓測試者誤認為是人類所答,那么這臺電腦就通過了測試,并被視為具有人類智能。
30%的說法是由英國人工智能之父阿蘭•圖靈提出的,這個標準現(xiàn)在愈發(fā)遭到人們質(zhì)疑。圖靈本人后來也否認自己曾為這項測試設定所謂標準,30%只是自己隨口一說。說者無心聽者有意,圖靈去世后37年,美國科學家兼慈善家休•勒布納把這項將這項測試辦成了一年一屆的賽事,這項賽事從1991年開始,直到2014年6月,主辦方才宣布首臺計算機通過測試。不過這次事件隨后遭到媒體質(zhì)疑,將其視為一次炒作。
我對此到有些不同的看法。計算機之所以能夠通過測試,依托于強大的數(shù)據(jù)庫作為支撐。在接受測試之前,計算機已經(jīng)有了大量的人類知識作為儲備,以及人類為它精心編制的智能化程序。也就是說測試的實質(zhì)是由作為人類的測試者提出問題,然后再由偽裝成人類的計算機說出人類為其設定好的答案作為回答。許多質(zhì)疑者認為,這項測試表面上看是計算機與人類之間的較量,實際上只是人與人的博弈。我倒認為,測試的實質(zhì)和結果并不重要,重要的是它的的確確騙過了一些人。
如果拿人類本身來舉例,一個孩子編造的謊言很難騙過一個成年人。這是因為成年人比孩子的生活經(jīng)歷更為豐富,辨別真?zhèn)蔚哪芰ψ匀灰哺鼜娨恍?。這么一想,那個偽裝成13歲男孩的計算機“尤金”之所以僅僅騙過了30%而不是更多的人,只是因為他的“經(jīng)歷”還不夠豐富,也就是說如果他的數(shù)據(jù)儲備足夠強大,程序足夠智能,讓更多的人上當只是時間問題。而現(xiàn)在他已經(jīng)以一個13歲孩子的身份成功騙過了30%的成年人,也就是說相比13歲的人類,尤金顯然更為智慧。
盡管目前人工智能還停留在對人類的拙劣模擬階段,但隨著人工智能技術的發(fā)展,有一天計算機將可以通過對性別、年齡、職業(yè)、生活習慣等方面的數(shù)據(jù)分析,進行智能化的模擬,好比現(xiàn)在的新聞網(wǎng)站會根據(jù)你的瀏覽習慣進行智能化的推薦。那時,計算機將可以模仿任何人,坑蒙拐騙等犯罪行為將成為司空見慣的事。
二、超越人類智慧
事實上,人工智能在數(shù)據(jù)計算、博弈系統(tǒng)、管理系統(tǒng)等許多領域已經(jīng)超越了人類智慧,Kiva智能倉儲系統(tǒng)實現(xiàn)了倉儲自動化應用、深藍超級計算機在1997年戰(zhàn)勝了國際象棋冠軍、沃森超級計算機在2011年的智力競賽中戰(zhàn)勝人類、由谷歌制造的無人駕駛汽車也即將成為現(xiàn)實。這意味著計算機在這些領域中已經(jīng)超越了人類智慧,由此引發(fā)的直接后果將是相關從業(yè)者將不得不面臨失業(yè)的處境。
好比無人售票系統(tǒng)的投入使用導致售票員的失業(yè),無人駕駛汽車的出現(xiàn)也將讓司機這一職業(yè)成為歷史。而在計算方面,人類幾乎已經(jīng)全部依賴于計算機,口算、心算和珠算等計算方式已經(jīng)被當做一種特殊能力,作為表演常常出現(xiàn)在電視節(jié)目里。更加貼近我們生活的例子是,人們在處理生活難題時也越來越依賴于計算機給出的經(jīng)驗和答案,而不是依靠自身思考。比如我們中國人最為熟悉的“百度一下,你就知道”。
人類在某些領域已經(jīng)越來越依賴于計算機,從而使得人類本身在這些領域逐漸喪失了與計算機的競爭能力。換個角度說,人類正在逐漸放棄自己的智能,而將這種智能賦予了計算機。如果說由此導致的失業(yè)問題會有一個循序漸進的過程,而不至于引發(fā)人類恐慌,那么更嚴重的問題是,假如有一天計算機突然失去某些能力,或者拒絕施展某些能力,而人類本身已經(jīng)不具備這項能力,后果將會如何?
三、擁有創(chuàng)造能力
機器與人類一樣,都具備學習的能力,不同的是機器的學習依賴于經(jīng)驗的積累,其過程也就是不斷地增加知識的儲備量,和不斷地從處理問題的過程中獲取經(jīng)驗,從而在遇到同類問題時根據(jù)知識和經(jīng)驗解決問題,也就是我們通常所說的“舉一反三”。而人類不同于機器之處在于,人類的學習除了經(jīng)驗的積累之外,同時還具有創(chuàng)造力。
人類的這種創(chuàng)造力又被稱為“跳躍型學習”,在某些情形下也被稱為“靈感”或“頓悟”。一直以來,計算機最難學會的就是“頓悟”。或者再嚴格一些來說,計算機在學習和“實踐”方面難以學會“不依賴于量變的質(zhì)變”,很難從一種“質(zhì)”直接到另一種“質(zhì)”,或者從一個“概念”直接到另一個“概念”。缺乏創(chuàng)造力,也就意味著機器將很難突破自身知識儲備的局限性,從而像人類一樣完成自我進化和完善。
不過,人類在幫助計算機超越自己上向來毫不吝嗇,據(jù)說,科學家們已經(jīng)研究出了一套新的數(shù)據(jù)分析方式,這套分析方法將為機器的具備創(chuàng)造力提供可能性。人類在計算能力上已經(jīng)遠遠落后與機器,如果在創(chuàng)造力上也失去優(yōu)勢,無異于將世界拱手讓給機器。
四、擁有人類感情
很顯然,科學家們絕不會滿足于一臺智能化的僅限于進行處理人類作業(yè)的機器,而會進一步賦予機器以類似于人類的感情表達能力?,F(xiàn)在智能聊天機器人已經(jīng)可以通過對人類文字的分析做出相應的摻雜有人類感情的回答,比如你對它說“我愛你”,它會做出“我也愛你”的回答。比如升級之后的微軟小冰,會刻意與領養(yǎng)者形成一種主仆關系。這些都是機器做出的類似于人類的感情表達。
人類感情有喜怒哀樂等多種形式,作為對人類的模仿,機器自然也應具備這些能力,否則按照人類對人工智能的標準,就算不上是智能。這種情況就導致人類很容易與機器建立起類似于人類之間的情感關系。比如相互欣賞、相互信任或者相互厭惡。假如與你互相信任的機器有一天突然感染某種病毒對你實施詐騙,你很有可能就會信以為真。這就要回到了機器利用模擬人類的方式對人類實施犯罪行為的問題。
假如你與機器彼此之間產(chǎn)生了相互厭惡的情緒,那么機器就有可能因此而拒絕執(zhí)行你下達的命令,甚至做出傷害你的行為。鑒于這種可能性,科幻小說家艾薩克•阿西莫夫在他的小說中為機器人設定了三大定律。一是機器人不得傷害人類,二是機器人必須服從于人類,三是在不違背第一第二法則的前提下,機器人必須保護自己。不過定律只是定律,制定出來就是用來違反的。
人工智能本身就是對人類的模仿,人分善惡,誰能保證機器的絕對無害呢?
猜你喜歡: