【數位公民雙週報】錄影中,請微笑🙂中國廣設「臉部情緒識別系統」,希望人民充滿正能量

中國的監控情結顯然領先反烏托邦電影幾十年。自 2012 年習近平推動社會「正能量」運動起,數萬支監視鏡頭便架在監獄、學校與養老院中,關照著人民的一舉一動,甚至號稱可預測罪犯、問題學生的危險行為。

整理撰文|陳廷彥、林冠廷;編輯|OCF Lab

「刷臉」促進正能量,微笑的中國人讓你內心發寒

(Photo on Smile for the camera: the dark side of China’s emotion-recognition tech)
週報

【數位公民雙週報】開源促進 5G 通信與雲端技術發展!臉書推出的 5G 軟體,正式加入 Linux 開源框架

一改 4G 硬體至上舊觀念,5G 聚焦軟體與雲端技術,開啟競合共享的風氣,讓「開放原始碼」專案蔚為風行。

整理撰文|陳廷彥、林冠廷;編輯|OCF Lab

臉書、Linux 基金會推 5G 開源軟體,能否幫助通訊技術開放、安全?

( Photo credit by mohamed_hassan on Pixabay)
週報

【數位公民雙週報】出售使用者數位足跡與智慧裝置記錄!科技公司成國家監控最大功臣

藉由執法與偵查,收購人民 Google 搜尋關鍵字、智慧手錶行跡等生活側寫,不知不覺成功監控。老大哥還在看著你,只是比以往躲得更深。

整理撰文|陳廷彥、林冠廷;編輯|OCF Lab

搜尋記錄、智慧裝置的使用數據,都成了國家監視的工具

(Photo by Murai .hr on Unsplash)

隨著科技公司搜集資料的範圍愈來愈廣,這些原本只是用來更新演算法的資料,最後時常成為國家執法機關偵查犯罪的工具。

週報

【數位公民雙週報】Mozilla 發表白皮書,揭示 AI 技術面臨的 8 大挑戰!

當技術超前法律制度與觀念,科技倫理將面臨全新挑戰。AI 可被利用做大量資料分析、深度學習,但如何不讓它被利用於犯罪、侵犯隱私、助長偏見?Mozilla 最新白皮書,教你如何「建立可信任的人工智慧」。

整理撰文|陳廷彥、林冠廷;編輯|OCF Lab

Mozilla 呼籲建立可信任的人工智慧

(Photo credit by michellekoebke on Pixapay)

過去網路興起,社會對於科技倫理的討論多聚焦於網路匿名性,或是言論審查所帶來的種種問題。現在 AI 成為新寵,AI 與其相關應用遍布於日常生活的網路和電子產品中,我們的關注也應該有所改變。
誓言要推動「網路健康」的 Mozilla 基金會,發布了一篇文章,主題是「可信賴的 AI」。文章作者 Mark Surman 指出 AI 的八大挑戰——偏見、隱私、透明、安全、巨型科技公司對 AI 的權力等等,且當 AI 系統性且自動化地蒐集與散布偏見資訊,沒有任何問責制度。AI 在看得見、看不見的層面正在大幅改變我們生活,要如何因應,可參考原文中的《建立可信任的AI》白皮書。

週報

【數位公民雙週報】你覺得電影應保留分級制度嗎?Netflix 演算法:「Yes」

Netflix 強大的資料分析技術,兩年內將上萬影片依法規自動分成 5 級,未來演算法或可決定你「應該」看什麼電影。

整理撰文|陳廷彥、林冠廷;編輯|OCF Lab

演算法將決定青少年能不能看特定影劇

Netflix 對於資料分析的功力眾所皆知,在平臺上,影劇被分成千萬種類別,並依照每個使用者的特性與喜好,建立專屬播放推薦清單。之所以能做到如此精細的分類,是因為 Netflix 聘用專人觀賞所有影片,並把影片中各個內容做成標籤再分類。
根據 BBC,Netflix 與英國電影分級委員會(British Board of Film Classification)合作,讓員工觀影後特別將性愛、暴力、罵髒話等的片段與數量輸入系統,讓演算法除了標註這是一部「80 年代的青少年浪漫喜劇」外,還可以將照片中裸露場景等「兒童不宜」指標,在兩年之內把 10000 多部影片按照國家規範分為 U、PG、12A、15、18 五級,進而「保護孩童」。BBC 引述英國電影分級委員會調查,指出 85% 的家長與 95% 青少年「想要串流平臺上有年齡分級」。

週報

【數位公民雙週報】破壞民主價值?政府線上擴權,多國立法核准網路內容審查

不僅台灣有網路內容過濾,日本、挪維等國也相繼出現類似的網站封鎖情況,此類不透明的管理機制一旦落實,即等同奠定網路監控與審查基礎。

整理撰文|陳廷彥、林冠廷;編輯|OCF Lab

網路審查無所不在,最民主的國家也不例外

(Photo credit on Censored Planet)

過全球公開網路伺服器的資料,美國密西根大學的研究團隊 Censored Planet 最近指出,網路言論的審查在看起來最民主自由的國家中,也難以倖免。
密西根大學團隊研發的自動審查追蹤系統「Censored Planet」,可將公眾網路伺服器(Public IInternet servers)轉化為自動哨兵,監視並回報網站被封鎖的狀況。其研究全球 221 國家,在 20 個月內蒐集超過 20 億次測量值,有高達 103 個國家都出現了網路審查增加的情況,其中挪威、日本、義大利等一般被認為高度民主的國家,都在近兩年內發生了過去從未被偵測過的審查狀況,如日本在 2019 舉行 G20 峰會期間,某些新聞網站即被一些網路封鎖。
許多國家立法要求網路服務供應商阻擋特定內容,但審查機制通常不透明,這種規定一旦成形,就表示政府可阻止任一網頁,奠定了審查網路言論的基礎。

週報

【數位公民雙週報】用開源改善美國投票流程,再也沒有人敢「偷走選舉」!

在幅員遼闊的美國,民主投票制度常常造成各地烽火四起。VotingWorks 用開源技術最佳化投票與審計流程,未來超方便投票指日可待!

整理撰文|陳廷彥、林冠廷;編輯|OCF Lab

不必要的流言退散!用開放原始碼重建選民對美國選舉信心

2020 總統選舉把太平洋另一端的美國鬧得滿城風雨。法律戰蔓延到各州、甚至聯邦最高法院,並且變成全球動蕩的不確定因素。不過,有沒有任何方法,可以讓川普再也說不出「他們把選舉偷走了」這種沒根據的言論?開放原始碼或許可以幫忙。從知名創投加速器 YC 「畢業」的新創公司「投票工作」(VotingWorks),從密西西比州的農村開始,試圖用開源技術改善投票流程。根據 TechCrunch,他們甚至可以使用現有的硬體設備建立服務。新的技術除了改善投票流程,讓密西西比州在更改州旗的選票上可以印出彩色圖片外,更重要的是,「投票工作」建立更完善的審計流程,讓假新聞散布者也沒臉可以在選後說出「我贏了很多」這種不負責任的話。

週報

【數位公民雙週報】當科技遇上性犯罪--Deepfake 助長「騷擾遊戲化」趨勢!

隨著深偽技術漸趨成熟,加害者在社群中提供各種變造裸照的服務,照片越受歡迎、則猶如獲得遊戲成就,更受激勵。其中受害者多為女性,更不乏幼齡女童。

整理撰文|陳廷彥、林冠廷;編輯|OCF Lab

噁心「深度合成」機器人正在散播兒童合成裸照

根據 MIT 科技評論轉述,美國心理學會進行的一項研究中,指出每 12 名女性一生中至少會成為一次復仇式色情(Revenge Porn)的受害者。過去復仇式色情指的是將被害者裸照、私密影片在未經同意的情況中上傳,但現在因為科技演進,電腦已經可以逐幀合成裸體照片,把未帶有情色意味的生活照、日常影片,變成受害者人生夢魘。
如同 2019 年一月出現的 DeepNude 手機 app,可讓用戶以 USD$50 一次的價格上傳女性照片,並載回該女性看似真實的「裸照」。此應用 deepfake (深偽技術)技術的 app 一時瘋傳,雖後來開發者緊急下架,但也已經造成眾多女性的合成照流入網路。
根據 Karen Hao 在 MIT 科技評論中名為〈深度合成機器人被拿來對未成年女孩「寬衣解帶」〉的文章中,某些社交平臺甚至成為深度合成的溫床,散播名人合成裸體影像,甚至有「性騷擾遊戲化」(The gamification of harassment)的趨勢,照片越受歡迎,合成者則越獲得成就與獎勵感,讓此非法行為變本加厲。

週報