
您不僅僅是一個數據點。 「選擇退出」功能旨在協助您重掌隱私。
人工智慧的最新發展浪潮迫使我們許多人重新思考生活中的關鍵面向。例如,數位藝術家現在需要專注於如何保護自己的作品免受圖像生成網站的侵害,而教師則需要應對部分學生可能將論文寫作外包給 ChatGPT 的情況。
但人工智慧的氾濫也帶來了重要的隱私風險,每個人都應該了解這些風險——即使你並不打算去了解這項技術認為你變成美人魚會是什麼樣子。
缺乏透明度
「我們往往對誰在使用我們的個人資訊、如何使用以及出於什麼目的知之甚少,」布魯金斯學會人工智慧和新興技術倡議政策主管傑西卡·布蘭特說。布魯金斯學會是位於華盛頓特區的非營利組織,其所進行的研究旨在解決各種國家和全球問題。
廣義而言,機器學習——也就是人工智慧系統不斷提升準確性的過程——需要大量數據。系統擁有的數據越多,其準確性就越高。像聊天機器人 ChatGPT 和谷歌的 Bard,以及圖像生成器 Dall-E 這樣的生成式人工智慧平台,都透過一種稱為網路爬蟲的技術來獲取部分訓練資料:它們會掃描互聯網,收集有用的公開資訊。
但有時,由於人為錯誤或疏忽,一些原本不應該公開的私人數據,例如敏感的公司文件、圖片,甚至是登錄列表,可能會洩露到互聯網的公開區域,任何人都可以藉助谷歌搜索找到它們。一旦這些資訊被抓取並添加到人工智慧的訓練資料集中,就很難將其刪除。
「人們應該能夠自由分享照片,而不必擔心照片最終會被輸入到人工智能生成工具中,或者更糟的是——他們的照片最終可能被用來製作深度偽造視頻,」印度科技公司Wipro的全球首席隱私官、弗吉尼亞理工大學帕姆林商學院網絡安全與隱私訪問學者伊万娜·巴托萊蒂表示。 “在互聯網上抓取個人數據會削弱人們對自身數據的控制權。”
資料抓取只是人工智慧系統訓練資料來源中一個潛在的問題來源。國際隱私專業人員協會隱私工程高級研究員 Katharina Koerner 表示,另一個問題是個人資料的二次利用。這種情況發生在您出於特定目的自願提供某些信息,但最終這些信息卻被用於您未同意的其他用途時。多年來,企業一直在收集客戶訊息,包括電子郵件地址、收貨地址以及他們喜歡的產品類型,但過去,他們無法充分利用這些數據。如今,複雜的演算法和人工智慧平台提供了一種便捷的方式來處理這些訊息,從而更好地了解人們的行為模式。這可以透過向您推送您可能真正感興趣的廣告和訊息來使您受益,但也可能根據您的郵遞區號限制產品供應並提高價格。科爾納表示,鑑於一些企業已經掌握了大量客戶提供的數據,因此這樣做對他們來說很有誘惑力。
她解釋說:“人工智慧可以輕鬆地從現有數據中提取有價值的模式,從而支持未來的決策,因此,當個人數據並非為機器學習目的而收集時,企業很容易將這些數據用於機器學習。”
更糟的是,對於開發者來說,從龐大的訓練資料集中選擇性地刪除你的個人資訊極其複雜。當然,刪除一些具體資訊可能很容易,例如你的出生日期或社會安全號碼(請不要向生成式人工智慧平台提供個人資訊)。但要執行符合歐洲通用資料保護規範(GDPR)的完整刪除請求,則完全是另一回事,或許也是最棘手的挑戰,Bartoletti說。
【相關閱讀:如何阻止學校設備分享您家人的資料】
即使在傳統的IT系統中,由於其複雜的微服務架構(每個部分都以獨立單元運作),選擇性內容刪除也並非易事。但科爾納表示,在人工智慧領域,這甚至更加困難,目前可能根本無法實現。
她解釋說,這是因為這不僅僅是按下「ctrl + F」並刪除所有帶有某人名字的資料那麼簡單——刪除一個人的資料需要從頭開始重新訓練整個模型,而這個過程成本很高。
退出將變得越來越難。
一個訓練有素的人工智慧系統可以提供大量的分析數據,包括模式識別,幫助使用者理解人們的行為。但這不僅僅是技術本身的能力——也因為人們的行為往往具有可預測性。正是人性的這項特性使得人工智慧系統無需深入了解你也能正常運作。畢竟,了解像你這樣的人就夠了,又何必了解你呢?
「現在只需要極少的信息——三到五條關於一個人的相關數據(這些數據很容易獲取)——就能立即將他們納入預測系統,」華盛頓特區一家專注於人工智能審計和風險的律師事務所BNH.AI的合夥人布倫達·梁(Brenda Leong)說道。簡而言之:如今想要置身事外越來越難,甚至可能是不可能的。
這讓我們幾乎沒有自由可言,因為即使是那些多年來竭力保護隱私的人,最終也會讓人工智慧模型替他們做出決定和提出建議。這可能會讓他們覺得自己的所有努力都白費了。
「即使這樣做對我有利,例如提供適合我收入水平的貸款,或者提供我真正感興趣的機會,但這一切都是在我無法以任何方式控制的情況下進行的,」梁繼續說道。
利用大數據將整個人群簡單歸類,忽略了細微差別——忽略了異常值和例外情況——而我們都知道,生活中充滿了這些。細節決定成敗,將普遍結論應用於特殊情況也可能導致嚴重後果。
數據武器化
另一個關鍵挑戰是如何確保演算法決策的公平性——尤其是在人工智慧模型的結論可能基於錯誤、過時或不完整的數據時。眾所周知,人工智慧系統可能會延續其人類創造者的偏見,有時會對整個群體造成可怕的後果。
隨著越來越多的公司依賴演算法來幫助他們招募員工或評估駕駛員的風險狀況,我們自己的數據被利用來損害我們利益的可能性也越來越大。有一天,你可能會因為這些系統所做的自動化決策、推薦或預測而受到傷害,而且幾乎沒有辦法追究責任。
【相關報導:自主武器可能在戰爭中犯下嚴重錯誤】
當這些預測或標籤在無法區分真假的演算法眼中變成事實時,問題就出現了。對現代人工智慧來說,一切都是數據,無論它是個人資訊、公共資訊、事實資訊或完全虛構的資訊。
整合度越高,安全性越低
就像你的網路安全取決於你最弱的密碼一樣,大型人工智慧工具與其他平台的整合也為攻擊者提供了更多可乘之機,讓他們在試圖存取私人資料時更容易得逞。因此,如果其中一些工具的安全措施無法達到標準,也不要感到驚訝。
這還沒算上那些在你不知情的情況下收集你數據的公司和政府機構。想想你家附近的監視器,在音樂會現場追蹤你的臉部辨識軟體,在你家附近公園裡拿著 GoPro 相機跑來跑去的孩子們,甚至還有那些試圖在 TikTok 上爆紅的人。
經手你數據的人員和平台越多,出錯的可能性就越大。出錯的空間越大,你的資訊就越有可能洩漏到網路的各個角落,並且輕易地被抓取到人工智慧模型的訓練資料集中。正如上文所述,一旦洩露,就很難挽回。
你可以做什麼
壞消息是,目前你對此幾乎無能為力——無論是人工智慧訓練資料集中包含你的資訊可能帶來的安全威脅,還是那些可能阻礙你找到理想工作的預測系統。我們目前最好的辦法就是呼籲加強監管。
歐盟已率先通過了人工智慧法案草案,該法案將根據可接受的風險水平,規範企業和政府如何使用這項技術。同時,美國總統拜登已透過行政命令撥款,用於開發符合倫理且公平的人工智慧技術,但國會尚未通過任何法律來保護美國公民在使用人工智慧平台時的隱私。參議院一直在舉行聽證會,了解這項技術,但距離聯邦法案仍遙遙無期。
在政府開展工作的同時,您可以(也應該)倡導制定涵蓋人工智慧平台的隱私法規,保護用戶免受資料濫用之害。與您身邊的人就人工智慧的發展進行有意義的對話,確保您了解您的代表在聯邦隱私法規方面的立場,並投票支持那些真正關心您利益的人。
閱讀更多《大眾科學》文章。