《智能社會:進退兩難 》:我們都可以冷靜一下嗎?
《智能社會:進退兩難》這部記錄片,請求人們思考社交媒體存在的問題,很難沒有共鳴,片中提到的問題都是現在進行式,而我們正身處其中,更能感受到問題的嚴重性與需要被解決的急迫性。
記錄一下《智能社會:進退兩難》的一些談話內容,有很多可以討論與思考的部分。在這個時間點看《智能社會:進退兩難》,很難沒有共鳴,片中提到的問題都是現在進行式,而我們正身處其中,更能感受到問題的嚴重性與需要被解決的急迫性。
誰是買家誰是賣家產品又是什麼
「由於我們並沒有花錢買我們使用的產品,所以我們用的產品是由廣告主買單,廣告主才是客戶,我們才是被賣的商品。」
「如果你沒有花錢買產品,你自己就是產品。」
免錢的才最貴,當我們使用社群媒體時,我們是在提交出個人的資料,社群媒體利用演算法分析「使用者」的興趣,讓客戶的產品可以投放到適合(準確)的目標族群。社交媒體的使用者鮮少意識到他們在網路上展現的性格、興趣、習慣等,即是被販售的產品。
「這是所有公司自古以來的夢想,能夠保證只要刊登廣告,就會有效果,這是他們的業務,他們賣的是確定性,為了在這一行成功,你必須有很強的預測能力,預測能力要強就必須有一個前提,你需要大量的資料。」
「很多人以為這些大型公司出賣我們的個資,臉書交出這些資料必會有商業利益,重點是他們拿資料去幹嘛?」
電腦如何監控我們?光是你在一張照片上停留多少時間,就會成為一組數字。你是開心或難過,你晚上沒睡覺時在看什麼東西,你按了什麼文章的讚等等。透過這些看似無關緊要的數字追蹤,去預測我們的行為,並建構使用者的性格數據。而且越來越能精準預測我們的喜好,進而開始有效投遞「我們會喜歡的物件或議題」。
科技只要夠進步看起來就會像魔術
「你把手機向下拉就能更新,最新資訊就會出現在最上面,向下拉就又能更新又有新資訊,每次都是,這在心理學有個術語叫做”間歇正增強”。」
「你不知道何時會得到或者會不會得到某樣東西,原理就跟賭城的吃角子老虎一樣,你不能只是有意識地使用產品,我要深入挖掘人的腦幹,把潛意識習慣植入你的大腦,從你的大腦深處控制你,你甚至不會知道。每次你看桌上的手機,光是看著手機就知道只要伸手過去,就可能有新消息,就好像玩吃角子老虎試手氣,對吧?這不是意外,這是一種設計技術。」
「另一個例子是照片標註,如果你收到一封電子郵件,說你朋友剛剛在照片上標註你,你當然會點那封電子郵件來看照片,你沒辦法放著不管。他們完全利用人類的深層人格。你要問自己一個問題:為什麼郵件裡沒有那張照片?這樣看照片不是更簡單?」
我覺得社群媒體最變態的設計就是打字的時候會出現「刪節號」,暗示你對方正在回覆留言,那會給你一種期待感,會想著:「對方要留言給我,那我就在這裡待一下吧。」久而久之,你使用社交媒體的時間就會拉長,更無法離開網路世界。
我們成了實驗室的白老鼠?
「臉書進行他們所謂的”巨幅感染型實驗”我們要怎麼在臉書網頁上用最低限度的暗示,就能讓更多人在期中選舉投票?他們發現真的有辦法做到,其中一個結論就是我們現在知道的:人類在真實世界的行為和情緒,的確會受到影響。而且使用者完全不會察覺。他們什麼都不知道。」
「人類在真實世界的行為和情緒,的確會受到影響。」這件事在過去幾年的感受更為深刻,無論是年初的台灣總統大選或是近期的美國總統大選,我們發現網路言論變得越來越失控,很多時候人們不再「好好談話」而是發出各種情緒化的言論,到處貼標籤,醜化彼此。其實早在網路發展初期,這樣的問題就已經發生,但激化與對立的狀況依然是一年比一年往上增強,而我們也在不知不覺中變得更為偏執、情緒化、暴力...
「我們拿這些人工智慧系統對付自己,用逆向工程的方式,找出怎麼做才能讓人類做出回應。幾乎就像刺激蜘蛛的神經細胞,看看怎麼讓蜘蛛的腿抽動。這就像一種監獄實驗,我們把人帶進這個數學矩陣,利用他們的一舉一動,搜刮大量金錢和資料,中飽私囊。用戶卻完全不曉得。」
「腳踏車面世時,沒有人受害,對吧?如果大家都開始騎腳踏車,沒有人會說:天啊,我們毀了這個社會。或者腳踏車會影響大家,讓大家都不照顧小孩、毀了民主基石,導致大家無法分辨真相等等。我們絕對不會說腳踏車有這些問題。如果某樣東西是工具,就只會靜靜躺在那裡,耐心等待。如果某樣東西不是工具,就會跟你要東要西,引誘你、操弄你、要你提供東西。我們已經不是在工具型的科技環境,而是進入成癮和操弄型的科技環境。改變的是這個:社群媒體並非被動讓人使用的工具,而是有其目標,有自己實現目標的方式,利用人類心理對付人類。」
社群媒體透過心理學去改變人類的行為,這其實跟《全面啟動》的概念非常相似,科技不再停留在淺層表面,而是進入深層的意識裡,植入一個想法(習慣),改變人們對一件事或一個人的想法。
你在看我嗎?
「全世界只有兩種產業把客戶稱為使用者,一個是毒品,一個是軟體。」
「人類演化後,開始在意其他部落同胞喜不喜歡我們,因為這很重要。但是我們有演化成在意一萬個人的想法嗎?我們並沒有演化成每隔五分鐘就需要一點點社會認可,這不是人類與生俱來能夠應付的體驗。」
「我們根據公認的完美標準改變生活,因為這種短期訊號就像一種獎勵,大心、按讚、豎起拇指,我們認同這種價值,以為這就是真理。但這都是虛假、稍縱即逝的人緣,不但無法長久,而且承認吧,這種生活反而讓你比以前更空虛。因為你被迫進入這種惡性循環,心裡想著:接下來該做什麼?因為我還想要這種感覺。想想看,這種情形對二十億人的影響,再想想大家對別人的觀感如何反應,大事...真的不妙。」
記得去年的南美旅行,有個小鎮的網路超弱,在那裡我只能發簡單的臉書訊息。在小鎮待上兩天時間,一方面感到焦慮「網路這麼慢,我會不會錯過什麼重要訊息?」一方面卻也發現,當你無法使用網路時,你不會一直被手機制約、不會一直想要知道網路上誰誰誰又說了什麼、不會一直想要分享你看到了什麼或拍了什麼照(因為那讓我們覺得自己很重要)。當生活沒有非必要讓他人知道我們的一舉一動時,或許我們才能回過頭看見自己的真正需求。
諷刺的是,觀賞《智能社會:進退兩難》時,我一邊紀錄下劇中有意思的對白,一邊不由自主地產生:「哇,這段話講好好,我要記下來發到網路上,這樣可能會賺到很多讚。」想法。在社群媒體的時代,我們已經被訓練成無時不刻都在思考如何贏得他人的目光,如何索求他人的認同...即便,我正在觀看一部探討網路媒體對人的影響的作品。
「整個新生代都被我們訓練和制約成只要覺得不舒服、寂寞、不確定或者害怕,就可以拿數位奶嘴麻痺自己,這會削弱我們處理負面感覺的能力。」
生命會找到出路
「你給電腦一個目標:我要這個結果。然後電腦自己學著怎麼達成,”機器學習”這個名詞就是這樣來的,所以系統每天都精進一點,用最佳順序挑選最佳貼文,讓你用這套產品的時間越來越長。其實沒人知道人工智慧用什麼方法達到那個目標。」
「這些公司裡只有少數人,不管是臉書、推特還是其他公司,只有幾個人瞭解這些系統的運作方式,連他們都不見得完全瞭解特定內容會變成怎麼樣,所以我們人類幾乎無法控制這些系統,因為這些系統控制我們看到的資訊,系統對人的掌控能力,超出人控制系統的能力。」
人類創造社群媒體,利用心理學掌控使用者,社群媒體在短短幾年內迅速發展,創造者甚至難以控制它的成長速度。這讓我想起《侏羅紀公園》的經典對白:「生命會找到自己的出路。」人類的好奇心為社會帶來便利與多種可能性,但同時間,人類的發明卻也常常讓自身陷入險境。看似無生命的社交媒體,其實是有機體,依靠人類的寂寞、孤單、自戀、恐懼、喜悅、悲憤等情緒,變得越來越強大而有殺傷力。
資訊客製化的恐怖
「我要向大家解釋臉書的動態消息功能到底有多糟糕時,其中一個例子就是要大家看維基百科,你登入維基百科網頁,看到的東西都跟別人一樣。這是網路上少數大家都一樣的東西。假設維基百科說:我們要讓每個人有不一樣的客製化定義,而且我們是拿錢辦事。所以維基百科會監視你,維基百科會計算:”我要怎麼做才能讓他改變一點點,以便達到商業利益呢?”結果維基百科就改變詞條內容。你能想像嗎?你應該可以想像得到,因為臉書、Youtube動態消息就是如此。」
「就算是兩個很親近的朋友,他們的朋友也幾乎重疊,他們想:我去看臉書上的動態消息,就會看到同樣的更新。但其實完全不是這樣,他們會看到完全不同的世界,因為電腦會根據計算結果,顯示最適合他們的內容。」
同溫層侷限你的視界
「你可以想像27億個《楚門的世界》,每個人都有自己的真相,自己的...事實。久了以後,你會以為大家都同意你的看法,因為動態消息裡的每個人都跟你有同感,一旦你處在那個狀態,就很容易被操弄,就跟你被魔術師騙了一樣,魔術師表演撲克牌技法時會說:隨便選一張牌。你不知道的是他們早就設計好了,所以你選的是他們要你挑的牌。臉書就是這樣,臉書說:你挑選你的朋友、你挑選要點的連結等。其實都是胡扯,就像魔術師一樣,臉書控制你的動態消息。」
「你看到另個陣營,就會開始覺得:”這些人怎麼這麼笨?你看我經常看到的大量資訊,他們怎麼會看不到同樣的東西?”答案是:“他們真的看不到同樣的東西。”。」
演算法下被操弄的人偶(人類)
「我擔心自己開發的演算法反而造成社會的兩極化,但從這個觀點來看,兩極化現象確實是讓用戶上線,非常有效率的方法。」
「大家以為演算法的設計是提供民眾自己想要的東西,錯了,演算法只是想找幾個夠棒的幻境,找個和用戶興趣最接近的幻境,如果你開始看這類影片,系統就會一直推薦下去。」
「麻省理工學院有項研究,推特上的假新聞傳播速度,比真的新聞還快六倍。如果一個人的優勢比另一個人強上六倍,這個世界會怎麼樣?」
「我們打造的系統讓假消息更有優勢,這不是我們故意的,只是因為假消息比真消息更能讓公司獲利,真相太無聊了。」
假新聞現在式
「所謂的第三人並不是以駭客手法操作選舉,俄國人並沒有駭掉臉書,他們只是利用臉書為合法廣告主,並合法使用用戶開發的工具。差別是:他們的用意非常邪惡。這就像遙控戰爭,一個國家操弄另一個國家,卻不必真的侵犯實體國界。」
「重點不再是你要投票給誰,而是讓社會徹底混亂、民眾分裂,目的是讓兩派人馬,再也聽不到對方的聲音,再也不想信任對方。」
「我們要把社會賣給出價最高的人嗎?我們要把民主體制整個賣掉,讓你潛入每個人的心理,讓特定族群相信謊言,然後造成文化大戰嗎?我們要這樣嗎?」
「如果我們對於何者為真沒有共識,或者認為世界上沒有真相,那就完了。這是其他問題底下的根本問題,因為如果我們對何者為真沒有共識,那就根本無法解決任何問題。」
「科技並不是人類的生存威脅,而是科技擁有把社會黑暗面激發出來的能力,社會最黑暗的一面,就是生存威脅。」
「會不會未來世代的孩子,再也不知道網路幻境出現前,這個世界原本的樣貌?如果你不知道自己身在母體裡,要怎麼從母體裡醒過來呢?」
經濟至上的危機
「我們發明"讚"按鈕時,動機是把正能量和愛散播到全世界,然而這個初衷現在反讓青少年因按讚數太少而感到憂鬱,或者可能造成政治兩極化。我們當時完全沒有想到這些...」
「我認為很多人都被商業模式、經濟誘因和股東壓力給卡死了,幾乎不可能有別的做法。」
「我覺得大家必須認同企業努力賺錢其實沒有關係,有關係的是沒有規範、沒有規則、沒有競爭...導致公司變成實質上的政府,然後他們說:"我們可以自律"這根本是胡說八道,離譜至極。」
#Netflix
網飛推出《智能社會:進退兩難》這部記錄片,請求人們思考社交媒體存在的問題,但同時間,我們在 Netflix 上看的每一部影片,也會成為一組數字,Netflix 的演算法會根據觀看者的類型偏好,推薦特定的影片。好處是:使用者比較不會踩雷。缺點是片單會越來越偏,最後侷限在特定的類型上。其實...我們已經深深陷入演算法的蜘蛛網中,很難從中逃離。
#該如何做
假新聞能夠快速傳播,一是煽動性,可以有效挑動他人的情緒(無論是攻擊或是同仇敵愾),二是宣洩性,透過傳播訊息來表達內心的不滿。不論分享文章的大家是怎樣的心情,我在分享一則新聞或是消息前,總希望自己可以先冷靜想想:這消息是真的嗎?有被證實嗎?它可能造成的影響為何?對於釐清事情真相有什麼幫助?我只是單純在散佈一種激烈的情緒,引發更大的對立嗎?
面對社群媒體能怎麼做?當情緒過於激動時,不要第一時間回應與傳播自己看不順眼或覺得有爽度的文章,冷靜過後,再來決定該如何面對。關掉臉書或IG或Line通知,我們不必要隨傳隨到。當你發現自己的讚數變少時,不要一直問自己:「是不是我哪裡不夠好?」讚數的多寡不代表你這個人(或文章)的價值。多看新聞,並且注意出處。在網路上與人交談時,不要自行腦補對方在想什麼,不要貼標籤,也不要因為別人貼你標籤,而合理化去貼別人標籤這件事。不要時刻處於攻擊與防備的姿態,盡量闡述自己的觀點,並試著理解對方的觀點,若是對方不願深談,不要窮追猛打,因為最後很可能會變成雙方不在討論事情,而只是各說各話。