每天,你的生活都會留下一些數位足跡,而科技巨頭會利用這些足跡來追蹤你。舉凡寄電子郵件、點外送、追劇,他們都能從中得到有價值的數據,以此瞭解你的喜好。這些數據被輸入到機器學習演算法,然後投放廣告和推薦,而Google將用戶數據變現為每年超過1200億美元的廣告收入。
我們越來越無法選擇退出這樣的安排。2019年,記者克什米爾‧希爾(Kashmir Hill)嘗試把五大科技巨頭趕出自己的生活,她痛苦地度過了六周,只使用基本的數位功能,但科技巨頭卻完全不痛不癢。
現在,美國西北大學的科學家提出了解決這種權力失衡的方法:把我們的集體數據當作談判的籌碼。科技巨頭或許擁有神奇的演算法,但如果沒有夠多的正確數據進行訓練,這些演算法就變得毫無意義。尼可拉斯‧文森(Nicholas Vincent)和李函霖(Hanlin Li)等研究者在論文中提出了三種方法:
數據罷工:靈感源自於傳統的勞工罷工,包括保留或刪除你的數據,這樣科技公司就無法使用——例如離開平台或安裝隱私工具。
數據下毒:包括提供無意義或有害的數據,例如使用「AdNauseam」這類瀏覽器插件,它會點擊每一個提供給你的廣告,以此混淆Google的廣告演算法。
有意的數據貢獻:包括把有意義的數據提供給你想要抗議的平台的競爭對手,比如把Facebook的照片也上傳到Tumblr。
許多人已經開始使用這些策略來保護自己的隱私,如果你曾經用過廣告或其他瀏覽器插件,修改搜尋結果以排除某些網站,你便參與了數據罷工和收回了一些使用數據的權力。但就像希爾發現的那樣,這種零星的個人行為,無法讓科技巨頭改變。然而,如果數百萬人同時一間科技巨頭在數據裡下毒呢?這或許可讓用戶獲得一些權力來堅持他們的要求。
已經有一些類似案例。2021年1月,Facebook宣佈將開始與公司其他部門共用WhatsApp的數據後,數百萬名用戶刪掉了自己的WhatsApp帳號,轉而投靠Signal和Telegram等競爭對手。大量用戶的離開導致Facebook延緩實行這個政策。
2021年3月,Google宣佈將停止在網路追蹤個人,並停止針對用戶投放廣告。文森表示,雖然還不清楚是否為真正的改變,抑或是品牌形象重塑的口號,但有可能是因為AdNauseam等工具的使用率增加,讓Google演算法的有效性降低,從而導致了這項決定。當然,真正的原因是什麼很難說,他說:「因為唯一真正知道數據對系統影響有多大的是科技公司。」
未參與研究的舊金山大學應用數據倫理中心研究員阿里‧阿爾哈提博(Ali Alkhatib)說:「這項研究令人興奮。看到他們從集體或整體角度來思考問題確實很有趣:我們可以對數據進行破壞和干擾,並以此威脅提出要求,因為這是屬於我們的數據,讓干擾和真實的數據全都放入這口井裡。」
要讓運動更廣泛地進行還有很多工作要做,例如工程師可以開發更多像AdNauseam的工具,有助於降低參與運動的門檻。政策制定者也能提供幫助,數據罷工在相關法律支持下特別有效,比如歐盟的《一般資料保護規範》(GDPR)賦予消費者要求刪除數據的權利。如果沒有這樣的保障,我們很難確保科技公司會讓用戶完全刪除自己的數位記錄,還是只是單純刪除帳號而已。
還有一些問題有待解決。數據罷工一次需要多少人才能破壞一間科技公司的演算法?哪些數據下毒對於一個特定的系統最有效?在一項涉及電影推薦演算法的測試中,研究者發現如果30%的用戶進行數據罷工,那系統準確率就會下降50%。但每一個機器學習系統都不同,而且科技公司會不斷更新。研究者希望機器學習領域的更多人能對不同公司的系統進行類似測試,並且找出它們的漏洞。
阿爾哈提博建議學者也應該在如何激勵集體數據行動方面做更多研究,他說:「集體行動真的很困難,讓人們堅持到底也是一項挑戰。還有另一個挑戰是,你如何讓一群非常暫時的個體——在這個例子中,可能是只使用搜尋引擎5秒鐘的人——把自己視為一個群體的一份子?」
他補充說,這些策略必須仔細研究,因為很有可能產生下游效應。在數據下毒有沒有可能最終只是讓審查內容的人,以及其他負責整理與標記訓練數據的人負擔更多工作而已?
但整體來說,這些策略能變成有說服力的工具,影響科技巨頭如何對待我們的數據和隱私,文森說:「人工智慧系統依賴數據,這是它們為何運作的事實,最終,這是公眾獲取權力的一種方式。」
原文出處:Technology Review