搜索引擎是否在操縱我們的思維?
幾個月前,矽谷一位資深投資者展開(kāi)了一項實驗:他整理了Facebook和谷歌分别持有的有關他的所有數據,然後(hòu)把這(zhè)些資料進(jìn)行對(duì)比。
結論讓他震驚,谷歌持有的信息是Facebook的好(hǎo)幾倍。“結果是驚人的,”我們在舊金山共進(jìn)早餐時(shí)他告訴我,“為什麼(me)沒(méi)有人讨論這(zhè)個問題?”
這(zhè)是一個有趣的問題,特别是在你每天多次使用谷歌服務的情況下,就(jiù)像我這(zhè)樣(yàng)。一個答案可能(néng)是谷歌高管擅長(cháng)建設政治支持網絡。另一個答案是谷歌緊握它自己收集的這(zhè)些數據,然後(hòu)利用這(zhè)些數據創造針對(duì)性的搜索和廣告服務,為用戶定制。而Facebook讓第三方開(kāi)發(fā)人員獲取其數據,這(zhè)是引發(fā)衆怒的原因。
這(zhè)種(zhǒng)區别可能(néng)會(huì)讓谷歌聽上去更友善,但這(zhè)是否意味著(zhe)我們可以放松了?位于加州的美國(guó)行為研究和科學(xué)技術研究所的心理學(xué)家羅伯特愛潑斯坦(Robert Epstein)不這(zhè)麼(me)認為。最近幾年,他與心理學(xué)家同事(shì)和數據科學(xué)家就(jiù)谷歌的“搜索”或“自動補全”功能(néng)進(jìn)行了大量研究。這(zhè)讓他相信,搜索引擎能(néng)夠以非常強有力且大多不被(bèi)注意的方式影響我們的思維。
搜索引擎有能(néng)力從人們在搜索框鍵入的第一個字符開(kāi)始操縱人們的搜索。搜索引擎公司操縱選舉的一個簡單但有力的方法是,為其支持的候選人減少負面(miàn)搜索建議,同時(shí)給出對(duì)方候選人的一個或多個負面(miàn)搜索建議。
愛潑斯坦的團隊邀請661名美國(guó)人在一次澳大利亞選舉中的兩(liǎng)位候選人中選擇一位。由于參與者不太了解澳大利亞政治,他們被(bèi)指導使用一個谷歌風格的搜索引擎搜索這(zhè)兩(liǎng)名候選人,在鍵入文字時(shí),該搜索引擎會(huì)提供通常的自動補全建議。
然而,研究人員還(hái)改變了出現在候選人名字下方的搜索建議,包括一系列正面(miàn)和負面(miàn)詞彙。結果是明顯的。當參與者後(hòu)來被(bèi)問到(dào)他們的投票偏好(hǎo)時(shí),他們的回答顯示,改變自動補全建議中正面(miàn)和負面(miàn)建議的比例能(néng)夠讓猶豫不決投票者的偏好(hǎo)改變近80%,盡管參與者看上去可以自由搜索他們想要的任何資料。另一項研究發(fā)現,當參與者隻得到(dào)4種(zhǒng)自動補全建議時(shí),他們很容易被(bèi)操縱;當有10種(zhǒng)建議供選擇時(shí),他們就(jiù)不容易被(bèi)操縱了。
這(zhè)些結果并不證明谷歌(或者必應(Bing)或雅虎(Yahoo)等任何其他搜索引擎公司)利用這(zhè)種(zhǒng)能(néng)力操縱了用戶。但愛潑斯坦的論文強調了一些他認為奇怪的模式。他的團隊發(fā)現,如果你在谷歌搜索引擎鍵入谷歌競争者的名字,再鍵入“is”時(shí),“Yahoo
is dead”(雅虎已死)或者“Bing is
trash”(必應是垃圾)等詞句可能(néng)會(huì)出現在自動補全框中。據愛潑斯坦稱,當時(shí)雅虎或必應自己的搜索引擎沒(méi)有出現同樣(yàng)的情況。
另一種(zhǒng)引人注目的模式出現在2016年8月。當時(shí)當在谷歌搜索引擎中鍵入“Hillary Clintonis”時(shí),自動補全建議提供的詞句包括“Hillary Clinton is winning”(希拉裡(lǐ)
克林頓將(jiāng)獲勝);在雅虎或必應,自動補全建議顯示的是“Hillary Clinton is a liar”(希拉裡(lǐ)克林頓是說(shuō)謊者)和“Hillary Clinton is a criminal”(希拉裡(lǐ) 克林頓是罪犯)。
谷歌高管表示,這(zhè)些不同的自動建議模式之所以出現,是因為該公司的一項政策是移除冒犯性自動預測。公司高管丹尼沙利文(DannySullivan)在上月的一篇博文中寫道(dào):“谷歌移除了那些違反我們的自動補全政策的預測,這(zhè)些政策禁止……在種(zhǒng)族、宗教或其他人口統計特征的基礎上對(duì)群體和個人進(jìn)行惡意預測。”
他們還(hái)堅決否認曾試圖利用自動補全工具操縱用戶。他們表示,愛潑斯坦的研究基于很小的樣(yàng)本規模,使用的是谷歌風格的搜索引擎,而非谷歌自己的數據。在2015年有關愛潑斯坦部分研究的罕見官方評論中,高管們表示:“谷歌從未就(jiù)任何話題(包括選舉)對(duì)搜索結果重新排序以操縱用戶情緒。”
撇開(kāi)其他不談,這(zhè)項研究應讓我們所有人思考我們使用“自動補全”功能(néng)的方式。自動預測做的越好(hǎo),用戶懶惰地被(bèi)吸入數字“回音室”的潛在風險就(jiù)越高。愛潑斯坦認為,有一種(zhǒng)簡單的解決方案。他認為,搜索引擎應在它們的網站上就(jiù)“回音室”和操縱的危險附上簡單的“健康警告”,以降低可能(néng)的風險。
不管你是否接受愛潑斯坦的研究,這(zhè)似乎是個好(hǎo)主意。但不要指望這(zhè)會(huì)很快實現,除非更多消費者和監管者像那位在矽谷與我共進(jìn)早餐的人那麼(me)做:即查看所有大型科技公司持有的關于我們的數據,從Facebook開(kāi)始,但不止于Facebook。(英國(guó)《金融時(shí)報》專欄作家吉蓮 邰蒂,譯者/梁豔裳)
來源:新華網