不信任微軟與 GitHub 開發的商品?社群推出開源程式自動化小幫手 GPT-Code-Clippy,寫 code 校正樣樣通!

整理撰文|陳廷彥、林冠廷;編輯|OCF Lab

​​社群開發出 Copilot 的開源替代版

(Photo credit by Free-Photos on Pixabay)

今年年中的時候,世界知名軟體原始碼儲存庫 GitHub 推出備受爭議的 Copilot 服務(OCF 討論貼文OCF Lab 報導)——如同其名,Copilot 會在撰寫軟體程式碼的同時,利用人工智慧公司 OpenAI 的 Codex 模型,預測接下來可以直接套用的各類程式碼,並提供建議。這個服務的立意良好,卻挑起一連串著作權與數位倫理問題,也讓 Copilot 的商業化目標鋪上了一層陰影。
根據 VentureBeat,開源社群秉持著相近理念,推出了「GPT-Code-Clippy」服務。這個服務從學術網站、GitHub、程式教學網站 StackExchange 等處收集訓練素材,幫助工程師快速寫出程式。但與商業公司開發的 Copilot 不同,「GPT-Code-Clippy」是免費的自由軟體;然而對於編碼中常見的偏見與歧視,該軟體開發者尚未表明是否有更好方法可緩解此類問題,例如:程式碼寫入「伊斯蘭教」時,總被自動註釋上「恐怖分子」或「暴力」等標籤。

媽,我的健保資料都上 Google 雲端了!

如果一覺醒來,發現常去的醫院把你的醫療資料通通送到一間外國公司「處理」,你會有什麼感覺呢?這就是英國的「皇家自由健保基金」幹的好事。
「皇家自由健保基金」(Royal Free NHS Trust)是英國國民健保署(NHS)的信託單位。根據 TechCrunch,該單位與 Google 的 AI 公司 DeepMind 合作,自 2015 年開始,將 160 萬民眾的醫療資料在未告知的狀況下分享給 DeepMind 用來開發臨床醫療軟體;在 2017 年,此舉被英國個資保護機構認定違法。現在,英國法律事務所 Mishcon de Reya 宣布,將代表英國居民 Andrew Prismall 與其他 160 萬民眾,對 Google 與「皇家自由健保基金」提起集體訴訟,希望彌補民眾受損的隱私。一名發言人指稱,Google 拒絕於此時提出回應,但已經注意到有這項訴訟的存在。

生活中的暗黑設計

(Photo credit by mohamed_hassan on Pixabay)

先前我們曾經介紹過暗黑設計:羞辱、欺騙、誘導使用者,讓你選擇花更多時間與心思在經過精心設計的數位服務中,進而成為公司的搖錢樹。許多鼓勵使用者同意開啟個人化廣告 cookie 的網站,就是其中一個例子。
使用者經驗設計研究者 Daniel Fitton 在 The  Conversation 中指出,連英國都在敦促 G7 國家解決 Cookie Banner 問題。每當想瀏覽網頁時,總有彈出式視窗詢問使用者是否願意提供個人 Cookie 作為網站行銷使用,若不同意則不得使用該網站;使用者也因此而迫不得已在網路上同意分享自己的資料。在〈網路暗黑設計的興起〉一文中,Fitton 介紹了他研究時看到的不同暗黑設計,諸如 Android 平臺存有大量免費軟體,卻暗藏著無數廣告、程式內購買、邀請朋友加入的機制;許多設計對於年輕族群特別不適宜,例如剝削青少年對於自己身體的低自尊心,鼓勵他們購買軟體中的俊男美女形象等。

性騷擾、霸凌頻傳,新 app 希望成為「協調者」

(Photo credit by Pexels on Pixabay)

美國影集 30 Rock(超級製作人)將綜藝節目的片場描述成員工彼此羞辱、惡搞,以及性關係複雜的環境。雖然觀眾看得很開心,但這些場景若搬到真實世界,則是許多人的夢靨。
研究指出,有高達 84% 的影視從業人員曾遭受職場性騷擾。電影製作人 Kate Wilson 就因為在美國的工作環境遭到性騷擾,而在 24 歲時搬回英國。現在 Wilson 的小孩也即將要進入電影產業,懷著保護孩子的心情, Wilson 計畫推出了「Call It!」(呼叫!)app。當員工在職場中遇到各種霸凌或騷擾,就可以取得相應的協助資源,向高層提出匿名申訴,或是具名的正式檢舉。這些資料也會送到學術單位進行研究。Wilson 説,「Call It!」無法從根本解決影劇產業的工作問題,但他希望這個軟體可以成為協調者,幫助員工獲得足夠資源。

中國如何看待自家企業的 AI 歧視

(Photo by Chen Feng on Unsplash)

極權中國雖然不喜歡陰柔男性出現在電視上,但他們認為 AI 不應該對待男女有別。根據南華早報,聯合國婦女署與中國當地的「上海玛娜数据科技发展基金会」公開發表一份報告,批評中國科技公司的 AI 歧視問題。他們舉出的例子包括百度搜尋「CEO」、「工程師」的圖片結果往往只有男性,但搜尋「女人」這類關鍵字的時候,系統會跳出跟性技巧、陰道有關的內容。這種搜尋結果來自社會原先存在的歧視問題,也深化了這些歧視本身。但南華早報也指出,透過 AI,有些中國公司得以偵測自己的求才廣告是否有性別歧視;百度則透過深度學習,找出 11 個受家暴者常搜尋的關鍵字,並且提供相對應的資源給這些搜尋者。


本文章授權條款採 創用 CC BY (姓名標示) 4.0

如果覺得我們寫得不錯,歡迎點選下圖幫我們按讚,按讚五次 OCF Lab 就會收到虛擬貨幣 LikeCoin 回饋唷!

發表迴響

在下方填入你的資料或按右方圖示以社群網站登入:

WordPress.com 標誌

您的留言將使用 WordPress.com 帳號。 登出 /  變更 )

Google photo

您的留言將使用 Google 帳號。 登出 /  變更 )

Twitter picture

您的留言將使用 Twitter 帳號。 登出 /  變更 )

Facebook照片

您的留言將使用 Facebook 帳號。 登出 /  變更 )

連結到 %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.