過去一年中,生成式人工智能(AI)的快速發(fā)展引發(fā)了許多隱私和倫理問題,包括對從受版權(quán)保護的作品中學習生成式人工智能的倫理和合法性的討論。例如,一些作者以侵犯版權(quán)為由對ChatGPT的所有者OpenAI提起訴訟。也有人擔心生成式人工智能可能使用個人信息的方式。例如,出于隱私相關(guān)考慮,意大利數(shù)據(jù)保護局暫時禁止了ChatGPT。
生成式人工智能可以創(chuàng)建文本并與用戶聊天,這是一個獨特的挑戰(zhàn),因為它可以讓人們感覺自己在與人互動。擬人化是指將人類屬性或個性賦予非人類。人們經(jīng)常將人工智能(尤其是生成式人工智能)擬人化,因為它可以創(chuàng)造類似人類的輸出。
這種虛假的關(guān)系可能會有問題。ELIZA效應(yīng)描述了“當一個人將人類水平的智能歸因于人工智能系統(tǒng),并錯誤地將包括情感和自我意識在內(nèi)的意義附加到人工智能上時”的現(xiàn)象。一名男子與聊天機器人分享了他對氣候變化的擔憂,聊天機器人為他提供了自殺的方法。不幸的是,他自殺身亡,他的妻子聲稱,如果不是因為他與聊天機器人的關(guān)系,他不會這么做。
這些產(chǎn)生類似人類輸出的算法玩起來很有趣,但它們帶來了嚴重的隱私問題。對面向消費者的生成式人工智能的企業(yè)來說需要考慮擬人化的人工智能有與隱私相關(guān)的利弊。
隱私優(yōu)勢
將人工智能擬人化的一個與隱私相關(guān)的好處是,它可以幫助用戶將過度的數(shù)據(jù)收集置于情境中。當信息由企業(yè)或應(yīng)用程序收集時,它可能看起來像是一大堆1和0,沒有任何意義。但是,如果一個陌生人似乎在告訴用戶關(guān)于自己的私人信息,這似乎令人反感,共享數(shù)據(jù)的后果就會變得具體而有形。
應(yīng)用程序可能被要求包含他們在應(yīng)用程序商店中收集的信息描述,但用戶通常不會閱讀,因為它很復雜,或者他們不確切地了解數(shù)據(jù)收集的內(nèi)容。相比之下,讓人工智能聊天將這些信息投入使用可能更具影響力。以Snapchat的人工智能聊天機器人My AI為例。盡管蘋果應(yīng)用商店通知用戶Snapchat可以訪問位置數(shù)據(jù),但圖1更實際地說明了訪問位置數(shù)據(jù)的含義。例如,我讓My AI推薦我附近的一家好咖啡店。
應(yīng)用程序用戶可能知道應(yīng)用程序可以訪問位置數(shù)據(jù),但與一個命名特定社區(qū)企業(yè)的看似人類的聊天機器人進行對話,可以更好地說明與應(yīng)用程序共享位置數(shù)據(jù)意味著什么。這可能有助于人們更多地了解隱私問題,從而使消費者對他們共享的信息更加謹慎,并采取措施保護他們的隱私。
隱私弊端
當與人工智能聊天機器人交談時,如果聊天機器人聽起來像人類并使用第一人稱或第二人稱語言,用戶可能會更愿意分享信息。提供給聊天機器人的信息可能會被一個友好的人分享,而不是一個可能將這些數(shù)據(jù)用于各種目的的企業(yè)。例如,人們可能會與聊天機器人交談一段時間,最終泄露敏感信息(例如,他們正在努力解決的健康問題)。大多數(shù)聊天機器人在用戶提供敏感信息時不會發(fā)出警告。
個人的輸入或人工智能平臺的輸出有可能用于訓練未來的反應(yīng)。這可能意味著與聊天機器人共享的敏感數(shù)據(jù)或秘密信息可能會與他人共享,或影響他人收到的輸出。例如,盡管OpenAI改變了政策,但它最初是根據(jù)提供給ChatGPT的數(shù)據(jù)進行模型訓練的。人工智能進行數(shù)據(jù)訓練后,很難再次對其進行訓練。
隱私聲明通常很難理解,消費者可能會繞過它們,但是會接受人工智能聊天機器人關(guān)于隱私對話式、易于理解的回應(yīng)。用戶可能認為聊天機器人提供的信息是全面的。但是,如果不深入研究提供商的隱私聲明,可能會對提供商收集的信息有不準確的了解。
例如,我問Snapchat的聊天機器人該應(yīng)用程序收集了哪些信息,但它向我提供的信息不完整。圖2顯示了My AI收集的數(shù)據(jù),但這并不是一個完整的列表。圖1證實了該應(yīng)用程序還收集位置數(shù)據(jù)。
從業(yè)者的收獲
使用人工智能聊天機器人的企業(yè)中的隱私專業(yè)人士應(yīng)該考慮聊天機器人提供關(guān)于隱私實踐信息的方式。對有關(guān)收集的數(shù)據(jù)、如何使用數(shù)據(jù)和消費者權(quán)利的問題的回答必須準確并且全面,以避免誤導數(shù)據(jù)主體。
使用人工智能聊天機器人的企業(yè)還必須考慮用戶的年齡,并確保未成年人受到保護。例如,59%的青少年表示他們使用Snapchat,只有付費訂閱Snapchat+的用戶才能刪除其My AI功能。這意味著使用免費版Snapchat的未成年人和未成年人的父母不能刪除My AI功能。青少年可能不了解它的缺陷或他們的信息如何被使用,他們正在使用My AI來進行心理健康咨詢,這可能存在危險。為未成年人提供人工智能服務(wù)的企業(yè)應(yīng)告知他們提供敏感信息的后果,并強調(diào)輸出可能不準確。
我問My AI頭痛該怎么辦,雖然它最初拒絕提供醫(yī)學上的建議,但最終建議我服藥(圖3)。盡管它推薦了相對無害的非處方藥,但未成年人可能不知道這些推薦的藥物是否會與任何處方藥產(chǎn)生相互作用。
即使是不使用生成式人工智能的公司,也需要了解將會如何影響日常運營。員工可能會覺得,向ChatGPT尋求幫助起草電子郵件類似于向同事求助,但兩者不可比較:ChatGPT是第三方服務(wù),不遵守工作場所保密規(guī)范。公司必須制定一項關(guān)于生成式人工智能使用的政策。這需要多個部門的投入,而不僅僅是隱私團隊。管理者還應(yīng)制定關(guān)于什么樣的工作可以利用人工智能工具的指導方針(例如,可以允許使用ChatGPT起草社交媒體帖子,但使用它起草機密電子郵件可能是不可接受的)。未制定關(guān)于GPT和其他人工智能工具使用的政策可能會導致員工濫用技術(shù),從而可能會導致隱私問題。
在隱私意識培訓中,隱私專業(yè)人員可以利用人工智能的擬人化元素對信息被不當披露會產(chǎn)生的影響進行說明。非隱私工作人員可能不理解為什么某些數(shù)據(jù)被認為是敏感的,或者為什么信息被泄露很重要,但Snapchat的AI等例子可以有效地說明如果位置數(shù)據(jù)等信息被不當共享可能會發(fā)生的后果。
結(jié)論
許多企業(yè)利用類似人類的人工智能工具,許多員工的工作也可能依賴它們。人工智能被擬人化的同時讓它看起來不那么值得信賴,但從隱私的角度來說更值得信賴。制定一項關(guān)于人工智能使用的政策,并確保消費者了解與人工智能共享數(shù)據(jù)的含義,可以促進更有效、更值得信賴的人工智能工具。
編者按: 本文于2023年9月14日首次發(fā)表于ISACA官網(wǎng)News and Trends/Industry News。尾注略。文章內(nèi)容僅代表作者本人觀點。
作者:SAFIA KAZI, CSX-F, CIPT,是ISACA隱私專業(yè)實踐負責人。在這個職位上,她專注于開發(fā)ISACA的隱私相關(guān)資源,包括書籍、白皮書和審查手冊。Kazi在ISACA工作了9年,之前曾在ISACA? Journal工作,并開發(fā)了屢獲殊榮的ISACA Podcast。2021年,她獲得了AM&P Network頒發(fā)的新興領(lǐng)袖獎,該獎項表彰35歲以下的創(chuàng)新協(xié)會出版專業(yè)人士。
翻譯:楊皓然(AdySec),CISSP,CISM,CISA,CDPSE,CRISC,CGEIT,PMP,CCSK,CZTP,CDSP,CCSSP,RHCE,CCNP,ISACA微信公眾號特邀通訊員,致力于安全運營、云安全、零信任等方向研究。
校對:唐雅琪(Andrea Tang),F(xiàn)IP, CIPP/E, CIPM,ISO 27001 LA,ISACA微信公眾號特邀通訊員小組組長,任職于安永企業(yè)咨詢有限公司。