4月初,快手和清華大學宣布成立未來媒體數(shù)據(jù)聯(lián)合研究院,快手CEO表示,如果沒有很好的對社會的認知、對人文的思考,僅靠技術(shù)本身會很容易走偏,要用哲學的智慧將算法、技術(shù)力量放大,從而避免表達幸福感的種種障礙。確實,算法在我們的生活中扮演著越來越重要的角色,關(guān)于算法倫理的討論也日益引起關(guān)注:算法作為信息和用戶之間的“黑色通道”不可見,它是客觀的嗎?會限制思維嗎?
凱文?斯拉文在TED演講中說,算法“提煉自這個世界,來源于這個世界”,而現(xiàn)在則“開始塑造這個世界”。在算法“塑造世界”的時代,值得我們思考的是:該如何突破功利主義瓶頸,賦予科技以正向的價值?
算法沒有價值觀嗎?
算法最大的優(yōu)勢是能夠根據(jù)用戶的“數(shù)字自我”而實現(xiàn)智能化、精準化推薦。從某種意義上說,算法是人們在信息的汪洋大海中快速找到自己所需的“捷徑”。人們信任算法,是基于其“客觀性”。谷歌公司堅信“我們的用戶信任我們的客觀性”。谷歌的人—機算法模式,試圖強調(diào)“技術(shù)理性”,即“沒有人為因素干預的客觀性”。但是純粹的客觀性真的存在嗎?
算法的背后是人,算法作為人類智慧的產(chǎn)物,無疑是需要承載一定價值的。算法的來源涉及諸多因素,人類的需求、利益和社會環(huán)境、現(xiàn)有技術(shù)等都會對算法產(chǎn)生影響,算法設(shè)計者的認知能力、知識水平、設(shè)計意圖、價值觀念同樣也會影響算法?!按a即法律”(code is law),美國學者勞倫斯?萊斯格認為,“盡管代碼可以實現(xiàn)去管制化,但代碼本身不是固定的,而是可以被商業(yè)、政治等非技術(shù)力量操控和改變的,人們在網(wǎng)絡(luò)上的行為認知是受到管制的,只不過這種管制是通過更改代碼而實現(xiàn)的”。
每個公司的算法不盡相同,而這背后體現(xiàn)的都是他們的目的和價值觀。我們認為自己擁有很大的權(quán)利去選擇信息,但實際上所有的選項都是算法給出的既定選項,算法在某種程度上決定了我們可以看見什么、我們以為什么是真實。在占領(lǐng)華爾街運動高漲的時期,F(xiàn)acebook并沒有在顯著位置予以推薦,那些將Facebook作為主要信息來源的人很可能因此認為這件事情并沒有那么重要。社會學家威廉?托馬斯與多蘿西?托馬斯說過:“如果人們把某種情境定義為真實的,這種情境就會造成真實的影響。”
雖然聚合類新聞資訊客戶端本身并不從事內(nèi)容生產(chǎn),依靠的是渠道優(yōu)勢換取媒體和自媒體內(nèi)容供應,但是,所有的推送內(nèi)容其實都會承載一定的價值觀。社會科學研究中所謂的“價值無涉”,并不是沒有價值,而是指對不同價值內(nèi)容予以同樣的尊重,以及給予不符合你的價值觀的信息以修正你價值觀的權(quán)利。因此,認為算法沒有價值觀的觀點本身就值得商榷。
算法限制我們的思維嗎?
算法在某種意義上是極簡文化的產(chǎn)物。人們渴望確定性的標準答案,來簡化信息時代因信息洪流而帶來的焦慮和迷茫。亞歷山大?加洛韋在《界面效應》一書中表示,算法文化有向簡單主義發(fā)展的趨勢,這是“無法根據(jù)眼前的情況考慮全局的問題,以及無法像解讀歷史那樣解讀現(xiàn)在所導致的必然后果”。
算法是一種選擇,選擇就意味著舍棄。信息的個性化推薦本質(zhì)上并不是用戶在主動選擇信息,而是信息的主動呈現(xiàn)。用戶所接觸到的信息要么是奪人眼球的10萬+,要么局限在他們感興趣的狹小領(lǐng)域,要么就是與他們觀點和意見相一致的“溺愛式”信息。人們沉浸在算法制造的信息繭房里,失去了對不同領(lǐng)域、不同觀點的接觸機會,精神世界也會因此變得狹窄。在算法的世界里,人只是一個個數(shù)據(jù)點的集合,而不會被當作一個個體來被理解和對待。人性的幽微、需求的多樣、情感的復雜,遠非代碼可以呈現(xiàn)。
算法預測、影響并進而控制用戶行為。算法對人思維的限制也可以從自動補全算法窺見。自動補全算法最初設(shè)計的目的是為了幫助殘疾人提升打字的速度,但是后來谷歌將它納入服務功能,在用戶完成搜索內(nèi)容輸入之前猜測他們想要搜索的內(nèi)容,以節(jié)省時間。然而自動補全算法卻給谷歌帶來了官司。
2012年,德國前總統(tǒng)克里斯蒂安?武爾夫的妻子貝蒂娜?武爾夫指控谷歌的自動補全算法對她進行誹謗和中傷。輸入她的名字,自動補全會出現(xiàn)指向妓女及陪侍行業(yè)的搜索項。法院判決,谷歌必須保證自動補全算法生成的搜索項不含有任何攻擊性或中傷性的內(nèi)容。武爾夫打贏了官司。谷歌宣稱對這個判決結(jié)果極為“失望”,認為判決結(jié)果是對谷歌客觀性的公開質(zhì)疑。公司發(fā)言人說:“谷歌不應當對自動補全算法生成的搜索項負責,因為這些預測不是谷歌自我完成的,而是計算機算法基于之前的搜索記錄自動完成的。”實際上,對于那些本來并不了解武爾夫的用戶,在看到搜索信息提示以后,確實很可能會被引導到某個方向。算法不僅可以預測用戶的行為,還會對用戶的行為產(chǎn)生影響并實現(xiàn)控制。
算法技術(shù)使用戶很多信息行為并非以需求為導向。算法將特定的選項放在用戶面前,導致用戶只能在所提供的選項中做出選擇。人們在信息獲取過程中的主動性被極大削弱。在很大程度上,用戶被算法所提供的信息“喂養(yǎng)”,這些信息并不都是用戶真正的需求。有時候,信息“偶遇”也成了預謀已久的信息“碰瓷”。
算法時代的 “自救”
對算法的質(zhì)疑從算法誕生起就一直存在,這種質(zhì)疑其實也反映了人類的科學理性。在對算法的設(shè)計提出繼續(xù)完善的同時,我們當然要學會“自救”,也就是面對算法要做到自我保護。
對算法可能存在限制有所覺察。對于用戶而言,算法最大的問題在于不透明。算法的復雜性即便是技術(shù)人員也未必能搞清,更不用說普通的“技術(shù)小白”。雖然我們看到的只是算法給出的結(jié)果,而對其中的設(shè)計理念、運行邏輯都一無所知,但是,我們應該知道算法其實并不是完全客觀的存在,它有可能被歪曲并存有偏見。我們要始終對算法可能存在限制有所覺察,知曉那些不符合我們價值觀的內(nèi)容很可能已經(jīng)被屏蔽在視野之外。
保持提問的良好習慣,而不要指望答案唾手可得。在所有問題都可以輕松解決的世界里,人們需要一種更加激進的思維模式。提問時,試著去了解算法正在發(fā)揮哪些作用,它們最初設(shè)計的目的是什么,以及所謂的“相關(guān)性”和“新聞價值”究竟是對誰而言?,F(xiàn)在已經(jīng)有人開始從事算法數(shù)據(jù)干擾的研究,以便在算法試圖了解他們、并將他們分類時采取干擾或規(guī)避措施。有人平時買報紙,用傳統(tǒng)網(wǎng)頁方式瀏覽新聞,盡量不依靠智能搜索,為的就是用自己的邏輯對抗算法可能帶來的信息窄化,不被算法限制。
揭開算法“黑箱”,更要能夠駕馭它??v觀歷史的發(fā)展,每每有新技術(shù)降臨,人們最終都很難不參與其中。我們當然不能放棄算法,盡管目前來看算法應用還會帶來很多問題。我們需要做的,不僅是要去了解算法以及它可能帶給我們的影響和改變,更是能夠駕馭它,用智慧趨利避害,讓算法更加科學理性。(人民日報中央廚房?煮酒話媒工作室 李康樂)