人工智能——即AI已經(jīng)變得越來越聰明,甚至能夠預測未來。比如警察可以用AI來提前預判出犯罪的時間或地點,醫(yī)生可以用AI預測病人最有可能心臟病發(fā)作或是中風。甚至研究人員還試圖為AI添加上更多的想象力,因為其能夠規(guī)劃出人類所預想不到的結(jié)果。
通常來說,在大眾的生活中很多決策都需要事先進行一定的預判。不過隨著AI的進步,其預測比人類更加優(yōu)秀。然而,隨著AI技術(shù)的進步,我們似乎仍然缺乏對AI的信心。最近就有研究表明,人們不喜歡依賴AI,更愿意去相信人類專家——即使某些專家是錯誤的。
你相信AI嗎?
IBM的超級計算機項目Watson給出的癌癥治療方案,大部分時候與醫(yī)生的建議十分吻合。在印度進行的一項研究顯示,在治療肺癌時Watson給出的治療建議96%的情況下與醫(yī)生的方案相吻合;治療直腸癌和結(jié)腸癌時,與醫(yī)生建議的吻合率也分別高達93%和81%。而且,Watson在臨床試驗中篩選乳腺癌和肺癌患者的速度要比人類快78%。截至目前,超過14000名患者根據(jù)其計算已收到相關(guān)的治療意見。
但是當醫(yī)生與Watson互動時,他們發(fā)現(xiàn)自己處于相當復雜的局面。一方面,Watson給治療提供了指導,但其實醫(yī)生并沒有看到有多大價值。因為Watson做出的這些指導,醫(yī)生也早就知道。另一方面,如果Watson產(chǎn)生出反駁專家的意見建議,那么醫(yī)生通常會得出結(jié)論——Watson是不能勝任的。因為Watson無法解釋為什么它的治療是可行的,它的機器學習算法是不被充分理解的,進而造成了更多的不信任和懷疑。最終,導致很多醫(yī)生忽視了AI建議,并堅持自己的專長。
沃森所面對的問題是,醫(yī)生根本不信任它。人類的信任往往是基于對可靠性經(jīng)驗的理解,有助于創(chuàng)造安全的心理感受。而AI是全新的事物,絕大多數(shù)人都對其不熟悉。因此,即使可以在技術(shù)上解釋(而這并非也總是如此),AI的決策過程通常還是讓大多數(shù)人無法理解。不了解的后果就是會導致焦慮,使人類覺得自己正在失去控制力。
社會上有一個新的AI分歧?
如果我們希望AI能夠真正造福于民,就需要找到一種方式來讓AI獲得人們的信任。當然,要做到這一點,首先要清楚目前人們對AI到底有著怎樣的態(tài)度。面對逐漸有望落地的AI,似乎在社會上也有了分歧。
有外國專家在向不同的人播放AI相關(guān)科幻片后,就向他們詢問有關(guān)人工智能、自動化等問題。他們發(fā)現(xiàn),樂觀主義者更傾向于積極地擁抱AI。而懷疑者則變得更加極端,甚至變得更加謹慎,不歡迎AI的到來。
這表明,人們對AI的偏見是一個根深蒂固的個人傾向。由于參與報道AI的媒體越來越多,正反意見也在博弈之中,進而就會直接影響人們對AI的認知。一部分人會認為AI將讓生活更美好,另一部分人則認為AI會讓社會走向滅亡——這樣的分歧將會越來越嚴重。
解決AI“信任危機”就要保持透明度
但不管怎么說,AI始終還是要向前發(fā)展的。而要解決AI的“信任危機”,就必須從多方面著手。目前,部分專家已經(jīng)有了提高人們對AI信任度的方法。最基本的,就是要盡快習慣AI未來出現(xiàn)在我們的生活中——使用的越多,就會越信任AI。就像當年互聯(lián)網(wǎng)出現(xiàn)之后,很多人也持懷疑態(tài)度。但隨著互聯(lián)網(wǎng)全面落地之后,人們就對其完全沒有戒心了。
另一種解決方案則是打開機器學習算法的“黑盒子”,讓其更加透明,展示出AI是如何工作的。這樣一來,能夠讓幫助人們對其有更好地了解。雖然絕大多數(shù)人不需要了解AI系統(tǒng)復雜的內(nèi)部運作,但如果展示出較為關(guān)鍵的運作信息,人們會對接受AI融入生活持更加開放的態(tài)度。
不是我們不愿意相信AI,只是對新生事物的一種本能“恐懼”罷了——就像原始部落的人還認為照相機能吸走“靈魂”一樣。當AI逐步普及后,對它的質(zhì)疑自然也就越來越少。(康斯坦丁/文)
(本文僅代表作者觀點,與本網(wǎng)無關(guān)。)