人工智能你怎么看
未來的生活肯定會有人工智能存在,那么你對人工智能到底怎么看呢?下面是學(xué)習(xí)啦小編為你整理的人工智能你怎么看,供大家閱覽!
人工智能你怎么看?
想象一下 2020 年的普通一天,人工智能助手喚你起床,為你端上已準(zhǔn)備好的早餐,都是你最喜歡的食物。在晨跑中,播放器會自動播放符合你喜好的最新歌曲。上班路上,電子助手會根據(jù)你過去的閱讀品味,自動向你推送新聞以供閱讀。
你閱覽著新聞,注意到總統(tǒng)選舉馬上就要來了,人工智能參考了你過去的政治看法和本州其他選民的意見,向你推薦了一位民主黨候選人。你的手機上,一條彈出信息詢問你是否需要 AI 助手幫你準(zhǔn)備投票所需文件,你點擊「同意」,然后關(guān)掉屏幕,繼續(xù)自己的生活。
人工智能:呆板的數(shù)據(jù)機器
AI 個人助手在幾年前已經(jīng)走進現(xiàn)實,對于我們來說,把履行公民義務(wù)的重任交與它們還是顯得有些不合適——即使人工智能幾乎總是知道在特定的時刻給我們最好的建議。通過足量的數(shù)據(jù)學(xué)習(xí),人工智能可以為每個人提供準(zhǔn)確的,個性化的建議,甚至比你最親密朋友的建議更完美。
Alphabet 董事長埃里克·施密特堅信,人工智能的發(fā)展會讓每個人都會變得更聰明,更有能力,更為成功。人工智能已經(jīng)展現(xiàn)出了巨大潛力,有希望幫助解決人類社會面臨的各種復(fù)雜挑戰(zhàn),如氣候變暖,人口增長和人類發(fā)展。
然而機器展現(xiàn)出的潛力也帶來了擔(dān)憂。有調(diào)查顯示,34% 的人表示自己害怕人工智能,而 24% 的人認為人工智能會對社會造成負面影響。相比較未知的恐懼,人工智能對于數(shù)據(jù)的依賴帶來了現(xiàn)實的隱患,GWI 的研究表明,63% 的民眾擔(dān)心他們的個人信息被科技公司濫用。最近 Oxford Internet Institute 的研究顯示,人們對于讓人工智能助手打理自己生活的方式持謹(jǐn)慎態(tài)度,特別是當(dāng)這些助理提出自己的建議,卻又不告訴你它推理過程的時候。
在這里,我們沒有必要混淆數(shù)學(xué)與魔法。人工智能并不是在你手機里生活的神秘生物。但我們往往會忘記,人工智能一直在讀取我們的個人資料,通過復(fù)雜的數(shù)學(xué)模型,自動推斷我們的興趣、位置、習(xí)慣、財務(wù)和健康。
開發(fā)者的角色
當(dāng)前關(guān)于算法與人類的很多討論都圍繞著設(shè)計者在算法中的作用——人工智能創(chuàng)造者的潛在意識和偏差是否會被編碼進幫我們做出決定的算法中。很多人擔(dān)心開發(fā)者的個人偏見會被帶入算法,其中一點點微妙的歧視就會讓部分人群的利益受到侵害——也許還有更壞的結(jié)果,科技平臺會演變成弱勢群體難以逾越的門檻。即使算法和寫算法的人沒有偏見,沒有人能夠保證訓(xùn)練算法的數(shù)據(jù)中一切都是平等的,現(xiàn)實世界本身存在著偏見,數(shù)據(jù)集中的內(nèi)容也會對人工智能框架產(chǎn)生影響。
持這一觀點的決策者和專家們經(jīng)常誤解人工智能算法出錯的原因。他們不斷指責(zé)開發(fā)者,卻忽略了自我學(xué)習(xí)系統(tǒng)的局限性。將錯誤推給別人是一種自然反應(yīng),特別是在你無法理解這些技術(shù)時。算法的偏差很少來自于開發(fā)它們的工程師。事實上,在大部分情況下,問題的根源出自訓(xùn)練算法的數(shù)據(jù),這才是構(gòu)建未來人工智能社會所要擔(dān)心的真正危險。
算法決定論
回想一下機器學(xué)習(xí)到底是怎么工作的,通過應(yīng)用統(tǒng)計學(xué)技術(shù),我們可以開發(fā)自動識別數(shù)據(jù)中特征的算法。為了達到這個目的,系統(tǒng)需要經(jīng)過巨大數(shù)據(jù)集的訓(xùn)練,訓(xùn)練模型的數(shù)據(jù)越多,預(yù)測準(zhǔn)確率越高。
在個性化數(shù)字應(yīng)用中,這些統(tǒng)計學(xué)習(xí)技術(shù)被用來建立算法,為用戶提供個性化服務(wù),計算機閱讀了我們的使用模式、品味、偏好、人格特征和社交圖譜,隨后建立起對于人類的數(shù)字觀感。計算機形成的社交身份并不基于你的個性或選擇,相反,這種虛擬身份來自于你的可統(tǒng)計數(shù)據(jù)點,和它們的機器解釋。這種代替,無論多么復(fù)雜,都是人工智能對人類的不完美數(shù)字表達。
人工智能只能查找歷史數(shù)據(jù),為用戶所需做出建議。這就是為什么今年 8 月,一個視覺識別神經(jīng)網(wǎng)絡(luò)通過 1400 萬張照片的訓(xùn)練后預(yù)測唐納德·特朗普將會贏得本屆美國總統(tǒng)大選。鑒于這個數(shù)據(jù)集中并沒有女性美國總統(tǒng),AI 可能判斷性別是識別模型的相關(guān)特征。但即使排除這一點,如果讓這個俄羅斯人訓(xùn)練的人工智能投票的話,它肯定會投特朗普。
這樣的推論會導(dǎo)致越來越僵化的推薦系統(tǒng),它傾向于不斷強化現(xiàn)有的看法,就像社交網(wǎng)絡(luò)中的反射效應(yīng)一般。「個性化」使每個人都被貼上了標(biāo)簽,讓現(xiàn)實生活和網(wǎng)絡(luò)世界互相割裂。計算機不斷地推薦「你喜歡的」內(nèi)容,用戶獲得的信息在不知不覺中被算法誤導(dǎo),人類或許在人工智能真正覺醒之前就已深陷其中了
動態(tài)的人生
我們的身份是動態(tài)的,復(fù)雜而充滿矛盾的。根據(jù)我們的社會背景,我們總會擁有者幾個不同的身份,這意味著我們需要用到幾種不同的 AI 助理——在學(xué)?;蚬ぷ髦械?,在酒吧或教堂里的。
除了通常的自我介紹,我們在網(wǎng)絡(luò)中可能也需要以不同的身份展現(xiàn)自我,和不同的群體展開互動。我們不希望自己在社交網(wǎng)絡(luò)中被隨意查看,我們也不希望自己在尋找新奇事物時,還要擔(dān)心朋友和家人的窺視。如果我們想要試試不同的社會身份,會發(fā)生什么?4Chan 創(chuàng)始人 Chris Poole 說道:「這不是你在和誰分享的問題,這有關(guān)你與他人分享什么樣的內(nèi)容。身份就像一個棱鏡,別人通過它來看你會呈現(xiàn)無數(shù)不同的面貌?!?/p>
區(qū)分不同的自我表達階層,繪制不同社交環(huán)境下的身份,對于人工智能而言是一個巨大挑戰(zhàn)。很多時候,人類面臨的問題不在于算法設(shè)計——我們連自己是什么都還沒弄清楚。但人工智能助手總會給我們一個答案:關(guān)于過去的我們。身份的變化在這樣的環(huán)境中變得越來越難,我們的生活習(xí)慣和信念被自我強化的循環(huán)鎖定,算法構(gòu)建的《土撥鼠日》出現(xiàn)了。
我們在日常生活中越依賴于個性化算法,我們的個性就會越被計算所磨滅,我們所讀,我們所見,我們生活的方式都將被機器所決定。通過專注于現(xiàn)狀,接管探索信息和偶遇陌生人的渠道,用過去發(fā)生過的事情試圖再一次討好自己,這就是算法決定論的世界。
當(dāng)過去照進未來,人類賴以生存的自發(fā)性,開放與進取變得逐漸稀缺。溫斯頓·丘吉爾曾經(jīng)的話變成了這樣:我們塑造了算法,然后,算法塑造了我們。
如何阻止未來
在今天,現(xiàn)實世界中的人工智能應(yīng)用已經(jīng)融入到了日常生活的方方面面——而人們對這一科技的興趣也是越發(fā)濃厚。但是有兩個主要的挑戰(zhàn)正讓未來變得難以觸及。從科技進步的角度來講,不同應(yīng)用之間的數(shù)據(jù)交換上缺乏互通性標(biāo)準(zhǔn),而具備這一點能夠防止徹底的個性化。要是想要真正有用的話,機器學(xué)習(xí)系統(tǒng)需要更多的個人數(shù)據(jù)——而這些數(shù)據(jù)現(xiàn)在都被孤立地分散在一些有競爭力的科技公司的專業(yè)數(shù)據(jù)庫當(dāng)中。那些掌握數(shù)據(jù)的公司就掌握了權(quán)利。一些公司,最著名的比如說像 Apple 和 Viv,已經(jīng)開始通過與第三方服務(wù)結(jié)合的實驗來擴大自己的勢力范圍。最近,一些最大的科技公司宣布了與人工智能研究的主要合作,這樣就可以將益處帶給大多數(shù)人,而不僅僅是少數(shù)人。這將會對今后建立對人工智能的普遍信任至關(guān)重要。
從社會的角度來看,人類似乎對人工智能的急速發(fā)展有一種莫名的反感。人們擔(dān)心會失去對人工智能助手的控制。信任是我們控制能力的一種直接表現(xiàn)。試圖對生產(chǎn)力進行一些微小的改進,卻要賭上關(guān)系和名譽,大多數(shù)人都不愿意這樣做。
當(dāng)然,在早期,人工智能助手的行為方式可能并不是它的人類制造者所期望的。有先例證明,一些失敗的人工智能實驗會減少對弱人工智能(narrow AI)解決方案和聊天機器人(conversational bots)的信任。Facebook、微軟和谷歌紛紛在 2016 年建立了它們的機器人平臺,但過早呈現(xiàn)在人們面前的人工智能科技,因其有限的功能、應(yīng)用和定制化讓用戶大失所望。
一直困擾我們的恐懼——人工智能科技的后果,也因為很多科幻小說中所描述的有意識、暴戾的人工智能統(tǒng)治世界的反烏托邦場景而加劇。但是我們所面對的未來,既不會像是人工智慧網(wǎng)絡(luò)「天網(wǎng)」(Skynet),也不會像喬治·奧威爾的《1984》里一樣:而更可能會像是《美麗新世界》(A Brave New World)中所描述的一個享樂主義的社會,在那里,科技的地位仍然是需要為普遍的幸福和自我放縱所服務(wù)。
未來導(dǎo)向型機制
每天都有關(guān)于我們每個人的成千上萬個算法決策——從 Netflix 的電影推薦、Facebook 上的好友建議,到保險風(fēng)險評估和信用評分。就各方面而言,人們自己應(yīng)該有責(zé)任對關(guān)于自己的算法決策進行跟蹤和仔細審查,或者說我們可能需要將此編碼到他們使用的數(shù)字平臺設(shè)計當(dāng)中?責(zé)任是非常重要的一點,準(zhǔn)確來說是因為在大范圍內(nèi)進行估量和實施是非常困難的。
因此,在一頭栽進這個未知的領(lǐng)域之前,我們需要回答一個問題:我們想讓人類和人工智能之間的關(guān)系成為什么樣子?反思這些問題,我們才會設(shè)計出非決策性的、透明并且有責(zé)任感的算法,這些算法能夠辨別出個體當(dāng)中復(fù)雜、發(fā)展和多方面的本質(zhì)。
猜你喜歡:
人工智能你怎么看
上一篇:人工智能能做什么
下一篇:人工智能什么時候出現(xiàn)