準確的演算法去行銷給每個選民時,我們如何做出理性的判斷?

文|林蓉

Rightscon 是個以數位人權、公民科技為主軸的全球性年會,每年在不同的國家舉辦,四天的年會有數百場的工作坊、會議、演講、座談會等,2019 年的地點選定在突尼西亞,一個台灣人非常難拜訪的國家。

我是一個在德國就讀社會所的台灣學生,以年會志工的方式前往突尼西亞參與今年的會議。在我參與的場次中,多數都是關於人工智慧以及演算法如何迅速深入到生活當中,以及如何影響我們的日常。

其中一個場次中,一個致力於推動演算法透明化的組織 Algorithms Watch 提出他們對於演算法在大量資料的訓練下所做出非常「準確的」預測,將如何犧牲掉我們的隱私與自由。例如在失業補助的發放基準與人才招募的過程中,當演算法逐漸取代人為的判斷,所帶來的歧視與壓迫將是前所未見的。這將不只是有膚色、性別、族群、社會階級等參數,演算法更能精確預測此人是否會參與工會、是否有可能有精神疾病/未來有精神疾病,是否可能會懷孕生子等,將在招募過程中更加強化職場上的不平等。他們更舉例說明,目前越來越多的歐洲政府開始引進「自動化」的決策系統去分配社會福利資源,例如丹麥正在建置的「自動化社會問題預防系統」,結合稅收資料、犯罪紀錄、學校與醫院等資料去提前發現「有問題」的父母。「社會信用體系」不只是中國的原創,更是世界各地的現實。

不少場次中,隱私權、資料被企業與政府濫用是常見的主題,然而討論的層次已經不再只是鼓吹大家拒絕使用社交網站與軟體,而是如何推動政策上的有效管制。歐盟的一般資料保護規範(General Data Protection Regulation, GDPR)是目前號稱最嚴的個資法規,除了更完整的用戶知情權,更明確規範了被遺忘權(用戶可要求企業刪除其資料)、資料可攜權(用戶可將資料攜帶至不同裝置)等權利,只要客戶或企業中有歐盟公民、提供歐盟境內服務與商品就都在 GDPR 的管轄範圍內。然而,這樣的隱私規範是不是就足夠,以及如何保障歐盟以外的人的隱私,仍然是一段長遠的路要走。

OCF 拍攝

在另一場次中,美國北卡羅萊納大學社會學教授 Zeynep Tufekci 更是在會議中提出「資料即汙染」(data is pollution)的概念,主張人們看待資料、隱私的方式應該像對待環境議題一樣,這不再只是個人不用社交媒體這種抵制方式,而是政府應該積極介入、限制資料濫用行為。如今每個人都提供了大量的資料給 Google、Facebook 等大企業,只要機器接收到你的好友名單,就可以準確的判斷你的政治傾向、商品偏好、個人特質等資訊;而這些氾濫的資料將讓全面性的監控、操弄更加容易,因此政府與機構必須扮演更積極的角色。

最後一天,Tactical Tech 組織提供了詳細的資訊,探討資料如何成為各國選戰行銷非常重要的工具。在世界各地選戰行銷逐漸發展成一個產業,這些公司透過網路上各種測驗與活動蒐羅使用者在社交網站上的資訊,進而提供個人化的選舉廣告,懷孕中的女性看到的候選人廣告有關生育,同一候選人左派與右派選民看到的廣告將完全不同。Tactical Tech 亦提到台灣的案例,柯文哲2014年的市長選舉便曾與新加坡選舉行銷公司 AutoPolitic 合作,該公司以數據分析結果建議柯文哲去刺青店拍攝廣告能夠最有效擴大年輕族群選票,而這果然成為柯文哲的選戰內容。這樣產業的興起使我們不得不面臨一個現實,當候選人、政黨能以非常精細、準確的演算法去行銷給每個選民時,我們如何做出理性的判斷?

作為一個較晚才開始接觸開源社群的異鄉台灣人,會議中許多議題讓我吃驚、困惑,大量的資訊與各式各樣的組織與參與者,總是讓我恨不得自己有十個分身,去了解每個議題、認識更多的人。許多主題仍然需要非常多的先備知識才能跟上討論的節奏,對於我這樣的業餘學生來說不時感到吃力。如同其他議題一樣,專業的討論和最前沿的觀點要進入到公眾的視野以及教育普羅大眾,可能還有一段路要走。


文章發佈 48 小時內,採創用 CC BY-NC-ND (姓名標示-非商業性-禁止改作) 3.0 台灣。
文章發佈 48 小時後,採創用 CC BY (姓名標示) 3.0 台灣。

發表迴響

在下方填入你的資料或按右方圖示以社群網站登入:

WordPress.com 標誌

您的留言將使用 WordPress.com 帳號。 登出 /  變更 )

Facebook照片

您的留言將使用 Facebook 帳號。 登出 /  變更 )

連結到 %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.