Facebook 為了自己的情緒測驗,操作使用者 po 文,引起各界撻伐。Facebook 日前自行公布這項早於 2012 年初所進行的研究結果,沒想到輿論逼的實驗主持人出來道歉,但感覺上他主要是在捍衛這項研究,並說所有的實驗都是為了提供使用者更好的服務。

Facebook 的這個實驗涵蓋將近 70 萬使用者,超過 300 則 po 文,他們要看的是,情緒化的發言是如何在社群媒體上散布開來。計畫主持人強調,這個實驗可以了解當人們看到朋友的正面 po 文,是否會導致負面情緒。而負面 po 文是否會讓人們愈來愈不想上 Facebook。

Facebook 道歉之後,強調這個計畫只影響 0.04% 的使用者,且時間非常短,大概一周而已。且受測對象的 po 文沒有被隱藏,大家還是可以在 po 文者的動態時報上看到,多下載幾次 po 文還是會顯示出來。

紐約時報諷刺 Facebook 的道歉文,並一一細數他們的道歉史,根據紐時的整理,過去十年 Faceook 至少道歉了四次,雖然 Google 和 Apple 也不免犯錯,但紐時一針見血地指出「在網路上犯錯有時候你不得不道歉,而 Facebook 顯然對道歉非常在行。」

 

 

69 萬網友不知成實驗對象 臉書「操控」想法實驗惹議

誰最了解你單身?已婚?還是住在哪裡?答案就是幾乎每個人天天都要「上」一次的臉書,現在這間公司不只成了最了解你秘密的人,他們還成了操弄你情緒想法的控制者。臉書日前公開他們在用戶不知道的情況下,進行的「訊息過濾」實驗,有 69 萬人的心情就這麼被他們輕易地用鍵盤操控,目前各界批判此事並開始議論社群平台對大眾的操縱力。
《衛報》30 號報導,臉書(Facebook)日前表示他們知道該怎麼操弄使用者的心情起伏後,受到相當多人的抗議,日前他們發表了他們在 68.9 萬名用戶的臉書頁面上所做的「實驗」,結果發現他們可以輕易地運用正面或是負面的訊息影響用戶心情,臉書官方稱這是一種「情緒感染」的過程。

 

讓你只看到朋友部分動態

這份研究,是由臉書、康乃爾大學以及加州大學共同合作,他們將用戶的訊息牆--也就是我們會看到朋友動態、各種評論、影片、圖像還有各種網站連結的頁面--進行篩選過濾,例如他們讓一部分的用戶較少看到朋友的樂觀正向發言,另一部分的網友則比較少看到悲觀負面的發言;他們的研究顯示,「朋友抒發在臉書上的情緒發言,會透過社群網路影響到用戶自身的心情,並構成用戶的認知結構,這是第一個以社會網絡所進行的大規模情緒感染研究。」

令人毛骨悚然的實驗

臉書和美國大學一起合作進行的研究引起譁然,目前包括律師、網路權益活動人士還有政治家們都不認同此事,並用「無恥」、「毛骨悚然」、還有「讓人不適」等評語評論這項研究。29 號時,英國一位國會議員也表示國會應該要重視此事,對臉書還有其他社群平台進行調查,找出他們是怎麼利用增減訊息來操弄用戶的情緒和心理反應。

大眾媒體選擇委員會的修利丹(Jim Sheridan)表示這是一項侵入性的研究,「這是相當具影響力的事情,如果現行法規沒有相關規範,那現在應該就要趕緊立法保護人民。」

「他們(臉書等實驗者)操控用戶的個人生活訊息,這讓我擔心像臉書或是其他社群平台,他們是有能力掌控人們對政治或其他事物的看法。如果人們因為這樣被操縱,那麼現在應該要有保護人們的方法,至少要讓大家知道這件事情。」

為增進服務品質

這項研究發表在《美國國家科學院院刊》(Proceedings of the National Academy of Sciences)上,研究目的是要「增進服務品質並讓用戶在臉書上看到的訊息與他們盡可能相關」。
臉書的發言人進一步表示:「這份研究的一大發現是找出人們對不同內容會有什麼樣的反應,例如了解到人們看到正面/負面語調,好友動態、或是按讚頁面的訊息時的反應。」

可以操控選舉

但其他人則表達擔心,因為這樣的操縱繼續可以用在政治目的上,像是選情緊繃時可用來操控選民情緒,另方面,也可以為了增加廣告收益,特意用比較多的開心訊息來吸引網友停留。
在眾多議論聲中,曾為美國總統歐巴馬在 2008 年大選時營運競選網站的藍州數位公司(Blue State Digital),他們的創辦人強森(Clay Johnson)就評論道:「臉書『散播憤怒』的實驗很嚇人」,他問:「那麼中情局(CIA)是不是可以對臉書施壓,讓他們去製造出會引發革命的不滿聲音?這樣的行為合法嗎?馬克組克柏可以在投票前 2 週丟出病毒影片來改變選舉風向嗎?這合法嗎?」

未告知用戶社違法

臉書目前可能因為沒有先告知用戶成為「實驗品」,而涉嫌違背道德還有法律規範,根據這份在2012 年進行的實驗,當中描述他們過濾的訊息都有遵照網站的訊息使用規範,也就是用戶在創建臉書帳號前同意他們進行相關研究。

普林斯頓大學的費斯克(Susan Fiske)教授在檢閱這份研究時,曾表示過擔憂,他認為「人們在實驗中必須被告知且同意是實驗受試者,他們也有權利不會因為不同意就受罰。」
馬里蘭大學的法學教授格林默曼(James Grimmelmann)也談到臉書沒有做到取得同意這件事情,美國聯邦法規中就曾提到要保護個體,必須對其解釋研究目的、實驗時程、實驗風險、並要取得受試者的自願同意。格林默曼就在個人的部落格上寫道:「這項研究是個醜聞,因為他們把臉書的錯誤示範帶進了學術研究的領域中,在這樣的領域內,我們的標準是以尊重待人,並為了大眾好。」

每個人都是被調查對象

事實上,網路公司使用邏輯統計的方式揀選網友看到的內容不是新鮮事,發表過文章「使用條件和規範:社群媒體、監測、經常連線所要付出的代價」(暫譯,Terms of Service: Social Media, Surveillance, and the Price of Constant Connection)的作者席爾曼(Jacob Silverman)受訪時就說網路已經成了「一個大型的市調公司」,「我們都是調查對象」。

使用和收入最重要

席爾曼進一步談到:「臉書做這項實驗讓人不舒服的地方就是他們在沒有得到同意的情況下,操弄了數萬人的心理感受。」
「臉書最在乎的兩件事就是:『網友繼續使用和廣告收入』。如果說,臉書發現多點開心的訊息可以讓用戶願意點擊滑鼠,那他們實在也沒有理由不去這麼做。只要他們繼續用這樣的方式營運訊息平台,而且不公開訊息的邏輯演算方式,我們是應該要擔心我們到底賦予了他們多大的權利和信任感。」

網友決定是否繼續用

在奧美互動行銷擔任總監的布萊克(Robert Blackie),他表示網路公司過濾用戶看到的訊息是他們公司營運的重要核心之一,這也是為什麼他們不願意公開談這些事情。
「想得到大眾的同意並進行這樣的事情,他們要更公開才行。例如他們要有獨立的評論者,或是有政府的規範在其中。如果他們不用公平的方式進行,人們也不願意再繼續使用他們的服務,這對他們公司來說就不是個好消息了。」

(本文由 地球圖輯隊 授權轉載) 

ruby 發表在 痞客邦 PIXNET 留言(0) 人氣()