以ChatGPT為代表的生成式人工智能一方面作為當前新興的科技潮流推動人們的生活發(fā)生重大變革,另一方面其所伴生的諸多法律風險亦不得不慎重對待。與諸多尚未發(fā)生的假想風險不同,個人信息保護困境已然成為現(xiàn)實。不同于著作權(quán)糾紛等偏向財產(chǎn)性的糾紛,個人信息保護問題更多側(cè)重人身性。因生成式人工智能基本特性產(chǎn)生的影響、個人信息保護內(nèi)部辯證關(guān)系遭受的沖擊,二者在耦合后加劇生成式人工智能背景下個人信息保護的困境
發(fā)布日期:2024-09-25 07:47瀏覽次數(shù):
以ChatGPT為代表的生成式人工智能一方面作為當前新興的科技潮流推動人們的生活發(fā)生重大變革,另一方面其所伴生的諸多法律風險亦不得不慎重對待。與諸多尚未發(fā)生的假想風險不同,個人信息保護困境已然成為現(xiàn)實。不同于著作權(quán)糾紛等偏向財產(chǎn)性的糾紛,個人信息保護問題更多側(cè)重人身性。因生成式人工智能基本特性產(chǎn)生的影響、個人信息保護內(nèi)部辯證關(guān)系遭受的沖擊,二者在耦合后加劇生成式人工智能背景下個人信息保護的困境。據(jù)此,需要兼顧生成式人工智能的內(nèi)部防范和外部約束,通過科技手段和法律手段的綜合運用,破除生成式人工智能背景下個人信息保護的困境,促進生成式人工智能和個人信息保護的良性互動。
在社會層面,生成式人工智能對各行各業(yè)帶來全新的挑戰(zhàn),小到日常學(xué)習辦公的方式,大到人類與人工智能的關(guān)系,社會生活的方方面面都受到突如其來的沖擊。聚焦法律層面,數(shù)據(jù)泄露、算法歧視、倫理問題、技術(shù)壟斷、責任能力等問題已為學(xué)界關(guān)注并討論。但上述諸多技術(shù)風險目前大都停留在猜想和假設(shè)階段,尚未實際存在。與此相比,以ChatGPT為代表的生成式人工智能對于個人信息保護的挑戰(zhàn)卻已然存在,并產(chǎn)生現(xiàn)實糾紛。因此,如何在生成式人工智能日益發(fā)展的環(huán)境下保障個人信息,平衡科技和個人信息保護間的關(guān)系,是整個學(xué)界需要及時直面和應(yīng)對的挑戰(zhàn)。
生成式人工智能之所以能夠在短時間內(nèi)為世人所接受和認可,最主要的原因便是其所展現(xiàn)的獨特屬性。這些特性使得生成式人工智能相較于傳統(tǒng)AI模型顯得更加“智慧”,傳統(tǒng)AI更多側(cè)重對于存儲信息庫中信息的檢索,無法實現(xiàn)所謂的“自生成模式”,亦無法深度自主反饋學(xué)習。但是,在生成式人工智能具備傳統(tǒng)AI所不具備特性的同時,也潛藏著對于個人信息的危險暗流。
ChatGPT作為生成式人工智能的代表,能夠充分反映出生成式人工智能當前所具備的特點。其中,最為直觀地便是操作簡單,容易上手。即使是老年人也可以通過語音的方式與生成式人工智能進行對話溝通,無論使用者是否具備專業(yè)的計算機知識,其所希望得到的大多數(shù)信息都能夠通過簡單問答方式獲取,極度便利幾乎沒有任何門檻。
生成式人工智能具備的便捷性是通過在大量數(shù)據(jù)的基礎(chǔ)上由計算機學(xué)習和模擬生成的,ChatGPT生成信息主要依賴其所掌握的龐大數(shù)據(jù)庫。也正因ChatGPT的出現(xiàn),使得原本難以為普通人尋得的數(shù)據(jù)在ChatGPT的使用者這里可以輕易獲及,幾乎不需要付出任何時間成本。如Guy Harrison所言:因為ChatGPT,使得我們終于可能接近至任何人通過簡單地詢問人類語言的信息便可查詢數(shù)據(jù)庫的地步。但是,也正是如此,原本網(wǎng)絡(luò)上星羅棋布的個人信息亦會變得更加便于獲取。這部分個人信息原本可能隱藏在不同網(wǎng)站的“邊邊角角”,還帶有很多“偽裝”,原本需要付出極大的時間成本和技術(shù)支持才能獲及,但是生成式人工智能卻能快速定位并加以篩選。因此,從個人信息被不當獲得的成本和便利性上看,生成式人工智能的便利性使得個人信息保護所面臨的挑戰(zhàn)更加艱巨。
傳統(tǒng)AI模型雖然能夠快速找到相關(guān)網(wǎng)頁和信息,但是信息本身十分凌亂,只實現(xiàn)粗略篩選功能,從整體來看并不高效。而OpenAI官方將ChatGPT的生成機制分為四個階段,其中ChatGPT的生成機理中很重要的一步就是強化學(xué)習算法針對獎勵模型優(yōu)化策略。無論是多么復(fù)雜的問題,生成式人工智能都能在短時間內(nèi)形成一個不完美但有效的答案。面對一個具體的問題,生成式人工智能能夠在浩如煙海的資料庫中以極短時間找到具有強相關(guān)性的信息,并且進行答案的生成和邏輯梳理。
如此高效的信息處理能力令人在感慨人工智能發(fā)展的同時,也引發(fā)一些不得不面對和思考的問題。只要是與問題強相關(guān)性的信息就會被搜集、整理和生成,如此高效形成的“答案”是否也意味著缺乏對信息可利用性和敏感性的分析?需要區(qū)分的是:找到信息和生成、利用信息存在很大的差別。另一個問題是生成式人工智能有多大概率能否保障所生成的個人信息之后的使用、儲存、傳輸被有效監(jiān)管?因為生成式人工智能的內(nèi)容只要出現(xiàn),便能夠直接為提問者獲悉,其中并沒有留下空白地帶。對于個人信息保護而言,如果缺乏一個嚴密的“篩子”,不能完全篩查出回答中涉及個人信息的內(nèi)容,在很大程度上個人信息就存在被漏洞泄露的風險和隱患,而且無法補救。高效需要以質(zhì)量和穩(wěn)妥為前提,配套保護沒有跟上,單純的快或許并不是一件好事。
生成式人工智能對于一個問題往往會給出多個要點,并且每個要點之間還能體現(xiàn)出不同的面向。也就是說生成式人工智能能夠?qū)σ粋€問題進行全方位、多角度的分析,某種程度上很像高中文科生作答時將自己能想到的各種因素全部列出,但生成式人工智能顯然更加全面且專業(yè)。這種全面的結(jié)論依靠的信息顯然不是簡單一個數(shù)據(jù)庫所能滿足的,往往一個問題需要參考引用數(shù)不清的數(shù)據(jù)來源,將不同數(shù)據(jù)進行整合分析。結(jié)論的全面性也就意味著涉及更多的數(shù)據(jù),或許其中很多數(shù)據(jù)單獨沒有價值、不可識別,但整合后便屬于需要被保護的敏感數(shù)據(jù),整合后的數(shù)據(jù)是否可以為他人所知、是否會涉及侵權(quán)他人的人身財產(chǎn)權(quán)益不無疑問。
而對與個人信息有關(guān)的內(nèi)容,通過生成式人工智能的信息整合和分析功能,也會使得原本分散、個性化不明確的個人信息生成全面具體的個人信息。而且對于需要被利用得如此龐大又模糊的個人信息,OpenAI公司其并沒有為個人提供檢查公司是否存儲其個人信息或要求刪除其個人信息的程序,可能已經(jīng)涉嫌違反通用數(shù)據(jù)保護條例。除此以外,生成式人工智能還能對個人數(shù)據(jù)進行二次深度加工,通過組合分析不同類型的個人數(shù)據(jù)來充分挖掘出其潛在價值。即使很多個人數(shù)據(jù)與提問者所涉獵問題的聯(lián)系并不緊密,生成式人工智能的算法也會收集這類個人數(shù)據(jù)來輔助驗證,并通過知識蒸餾來進行深度學(xué)習并凝練結(jié)論。在這個過程中,使用驗證個人信息的這一行為不會因為沒有生成相關(guān)結(jié)果或尚未導(dǎo)致個人信息泄露就具備了合理性。簡言之,對個人信息的使用、訪問本身就涉嫌構(gòu)成不當侵權(quán),即并不以出現(xiàn)損害結(jié)果為要件。
基于ChatGPT類技術(shù)的架構(gòu)分析可以發(fā)現(xiàn),生成式人工智能知識的習得與生成無法保證絕對正確,在本質(zhì)上當前大多生成式人工智能仍然是聯(lián)結(jié)學(xué)派的范式。與此同時“算法黑箱”的問題也已經(jīng)被很多學(xué)者所關(guān)注。生成式人工智能所形成的答案不精確本身并不具有可指摘性,即使是Ope?nAI公司自己也承認ChatGPT有時會創(chuàng)造性地給出似是而非、不準確或者荒謬的回答。
但是,如果生成式人工智能給出的回答涉及具體個人信息領(lǐng)域,直接產(chǎn)生的一個問題是:創(chuàng)造性生成內(nèi)容的錯誤可能會導(dǎo)致某個民事主體的名譽權(quán)等受到不當侵害。即使是對很多未被直接泄露的私密信息,生成式人工智能也可以在不斷學(xué)習、分析的過程中通過大數(shù)據(jù)算法自行推斷,推斷的結(jié)論自然存在誤差的可能性。在實踐中,如果錯誤地將A主體的新聞識別為B主體的信息,或者對于同名同姓的主體發(fā)生錯誤識別,所給出的回答直接會導(dǎo)致侵犯人格權(quán)的后果。退一步講,即使技術(shù)能夠達到非常精確的程度,不會出現(xiàn)錯誤,正確地推斷出他人的個人信息,亦不具備正當性。因此,如果涉及個人信息,生成式人工智能因其創(chuàng)造性或可造成的不良后果必須為學(xué)界所重視。
個人信息之所以近年來備受人們的重視,一方面是因為經(jīng)濟社會發(fā)展后,人們愈加重視深層次的權(quán)益,個人信息是一個多元價值的集合體,包含了信息主體的人格尊嚴和自由價值、商業(yè)價值和公共管理價值。另一方面也是因為個人信息自身所擁有的獨特屬性,其同時囊括個體與群體;其保護法益兼具公益與私益。對于個人信息保護而言,其所表現(xiàn)的一個重要特征在于內(nèi)部的辯證關(guān)系,當前很多關(guān)于個人信息的研究實質(zhì)是建立在“相對分離—絕對統(tǒng)一”“主觀判斷—客觀標準”和“信息流通—信息保護”三組關(guān)系之上。而這些辯證關(guān)系也在生成式人工智能背景下受到猛烈沖擊,使得個人信息保護面臨與傳統(tǒng)不大相似的困境。
當前個人信息保護涉及最多的便是數(shù)字技術(shù)領(lǐng)域,幾乎每一個手機APP都涉及個人信息的獲取和使用問題。有學(xué)者發(fā)現(xiàn)人們通常使用的十款A(yù)PP(除理財產(chǎn)品APP外)不僅會搜集個人信息,還允許略過閱讀協(xié)議直接同意。雖然很多個人信息是應(yīng)用程序通常都會搜集的(如性別、年齡、號碼等),但是不同種類的APP側(cè)重搜集的個人信息卻存在差異。每個主體的個人信息都被零零散散地分布、共享在不同種類、不同公司的APP上。雖然這些個人信息雜亂無章,但是個人信息卻最終都絕對統(tǒng)一,即所有的個人信息最終都可以歸屬于一個主體。
原本分散的個人信息雖然也存在著被泄露的風險,但是在很多情況下泄露的都只是某一類個人信息或者某個特定化場景下的個人信息,所有信息均被同一時間泄露的概率不大。與此不同,在生成式人工智能背景下,再分散凌亂的信息一旦具有可獲及性,ChatGPT等生成式人工智能都能迅速捕捉并進行最大程度的分析和組合。生成式人工智能會使得原本個人信息“分散”的特點變得模糊,個人信息是否被統(tǒng)一只是選擇問題,而享有選擇權(quán)的主體可以是使用生成式人工智能的任何人。當普通民事主體的大部分個人信息都為他人知悉,該主體也就在社會上喪失了神秘性,能夠為他人所輕易分析和引導(dǎo)。進而甚至還會完全喪失獨立性,因為其所有自以為的自我決策實質(zhì)上都可能是他人和外在刻意引導(dǎo)的結(jié)果。生成式人工智能對個人信息相對分離的破壞是傳統(tǒng)AI所不能達到的,破壞個人信息相對分離導(dǎo)致的結(jié)果,不僅是對個人權(quán)益的侵害,也是對社會公共秩序的破壞。
就個人信息而言,或許可以總結(jié)為兩個核心問題,即什么是個人信息以及個人信息的使用范圍和程度。前者原本是一個事實層面的問題,個人信息的判斷可能隨著時間的變化而變化。個人信息一開始被視為純粹私人的“物品”和“領(lǐng)域”,后來社會本位的觀點就逐步興起。無論如何,在特定時期背景下個人信息的內(nèi)容和范圍是存在客觀標準的,只有是或不是的判斷,不存在所謂的中間地帶。后者則涉及價值判斷問題,個人信息的使用范圍和程度天然地有所不同,不同主體有不同的希望,有的希望定向推送廣告和商品,有的連電話號碼都不想授權(quán)他人獲取。雖然法律可以給出規(guī)范層面的邏輯框架,但是具體在判斷個人信息合理使用必須需要結(jié)合主觀判斷,也就是當前各種APP所需要的個體授權(quán)同一模式。有學(xué)者提出對“合理范圍”的解讀應(yīng)從處理者規(guī)制視角回歸到信息主體權(quán)益視角,“合理范圍”應(yīng)以公開時的“合理預(yù)期”為標準,合理預(yù)期的判斷需綜合主觀標準和客觀標準。
價值判斷本身就是法律思想史中最富有爭議的議題,作為人之為人的特性,生成式人工智能并不能為其提供幫助或解決思路。有學(xué)者指出,生成式人工智能或許可能有助于類案裁判,但是無法基于實質(zhì)正義之立場,維護普遍正義和個案正義的平衡。在這一組辯證關(guān)系中,就價值判斷而言,生成式人工不僅不能為其提供幫助,還要預(yù)防其發(fā)出錯誤的提示進行誤導(dǎo),“無為”或許便是生成式人工智能所能作出的最大貢獻。而生成式人工智能帶來更直接的影響或許是對何為個人信息這一事實判斷的沖擊。原本在特定背景下范圍清晰的個人信息,因生成式人工智能變得不再那般事實化,生成式人工智能所具有的超強算法和分析能力導(dǎo)致在考慮何為個人信息范疇的過程中需要加入很多價值判斷考量。原本不構(gòu)成個人信息的內(nèi)容,可能會為生成式人工智能拼接、推導(dǎo)分析出隱含的信息,這便導(dǎo)致個人信息自身的邊界變得不再清晰,甚至是否屬于個人信息完全都不為人類自己所掌控。生成式人工智能使得個人信息的判斷變得復(fù)雜,進而所有與之相關(guān)的問題都需要將這一前置條件作為思考的邏輯起點——構(gòu)不構(gòu)成個人信息。一些原本并不構(gòu)成個人信息的內(nèi)容,可能會因為生成式人工智能也需要被納入個人信息的保護體系進行分析。而很多原本已經(jīng)被解決的問題,如今也都會因為這一前提需要重新思考。
凡是涉及個人信息的問題之所以不能被一刀切的保護,主要一個原因是因為對隱私權(quán)益必須進行場景化的理解,個人信息流通亦具有公共性價值。個人信息需要被保護,但是個人作為社會主體,參與社會生活分配,其所涉及的很多信息并不能被簡單地專屬性保護。個人信息不僅在社會層面需要流通利用(例如大數(shù)據(jù)決策),在個人層面也可以通過個人信息的流通以進行定向推送,定制分享所偏好和需求的物品。個人信息流通屬于合理使用的范疇,而合理使用在當前社會任何層面都具有不可忽視的意義,其實質(zhì)是對自然人享有個人信息方面的人格權(quán)益的限制,是對知情同意原則的法定豁免。
但問題在于合理利用的邊界究其為何?將個人信息應(yīng)用到商業(yè)場景下是否一定就超過了合理邊界?能否簡單通過社會利益需求推導(dǎo)出個人信息被使用即合理?后兩個問題的答案至少不是不證自明的。很多學(xué)者也在試圖給出一些標準和界限,但是很難形成完全一致的意見。在此基礎(chǔ)上,生成式人工智能還會將合理使用的邊界進一步模糊,信息流通也將面臨更大阻礙。例如,在沒有生成式人工智能的時候,信息搜集流通只需要考慮搜集的必要性、使用的目的性、儲存運輸?shù)陌踩约纯伞5?,生成式人工智能的出現(xiàn)直接使得個人信息的儲存運輸安全性成本大大增加,搜集的必要性模糊,原本只能被用來實現(xiàn)特定目的的個人信息可能會被生成式人工智能推導(dǎo)出與原本搜集目的不相關(guān)的其他個人信息。在此過程中,如果將個人信息輸入到生成式人工智能,則涉及的問題就會更多。生成式人工智能無疑加劇信息保護和信息流通之間的矛盾,生成式人工智能自身的風險可能使得個人信息合理使用的邊界進一步模糊,在無法判斷是否屬于合理使用的情況下,更加經(jīng)濟的做法是不流通信息以防止風險的發(fā)生(除非為了利益自愿承擔信息泄露風險)。整個邏輯路徑可以總結(jié)為:生成式人工智能自身特性→導(dǎo)致信息流通風險增大→犧牲信息流通換取信息安全/犧牲信息安全換取信息流通。
通過上述分析不難發(fā)現(xiàn),生成式人工智能和個人信息保護之間并不是涇渭分明的兩組范疇,二者實質(zhì)上發(fā)生著相互耦合的糾葛。生成式人工智能的四點特性會導(dǎo)致個人信息保護造受到深層的沖擊,個人信息保護內(nèi)部固有的三組辯證關(guān)系也會為生成式人工智能所影響變得更加模糊。原本由個人信息保護法和民法典等規(guī)范對個人信息搜集、處理、使用等諸多環(huán)節(jié)的保護,都會隨著生成式人工智能的發(fā)展變得出現(xiàn)裂痕。以ChatGPT為代表的生成式人工智能已然面臨著嚴重的個人信息泄露問題,一方面,生成式人工智能的便捷、高效、全面、不精確性會使得個人信息源頭端、個人信息分析端、個人信息組成端和個人信息生成端均面臨內(nèi)憂外患。另一方面,個人信息內(nèi)部相對分離的破壞、個人信息內(nèi)容客觀標準的曖昧、信息流通和信息保護的矛盾,可能隱含的誤導(dǎo)都將會使得個人信息保護在生成式人工智能背景不變的風雨飄搖。如果不加以防范和規(guī)制,個人信息將在生成式人工智能背景下變成任何人都可以獲取利用的“財富”,所謂的個人信息保護只會淪為自欺欺人般的存在。
為了規(guī)范生成式人工智能,學(xué)者們提出了很多方案和理論選擇。其中最為典型的便是生成式人工智能治理元規(guī)則概念,從價值層面來看,這些元規(guī)則都符合人們的認知和普遍理念,對生成式人工智能整體規(guī)制發(fā)揮框架性效果。但是,生成式人工智能規(guī)制更需要的或許是具體措施的制定,元規(guī)則需要轉(zhuǎn)化為具體規(guī)范群,才能產(chǎn)生實踐意義。另一方面,對于生成式人工智能的規(guī)制,倫理先行這一價值很好地突出了以人為本和底線思維。但是,所謂的科技倫理原則亦正在遭受直面挑戰(zhàn),有學(xué)者指出,如以寬泛的法律價值為基本內(nèi)容,科技倫理缺乏必要的可操作性,與一般的倫理規(guī)則并無本質(zhì)區(qū)別?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》對生成式人工智能進行了界定,從合規(guī)義務(wù)和監(jiān)管等層面提出了要求。這一管理暫行辦法的第4條第4項針對個人信息作出了原則性規(guī)范,第7條、第9條、第11條和第19條從知情同意、提供者責任、保護義務(wù)和監(jiān)督檢查層面對個人信息進行了規(guī)范性依據(jù)。上述五個條文顯然為生成式人工智能背景下的個人信息保護提供了規(guī)范路徑和整體思路,但是或許更加重要的在于如何從實踐層面上貫徹這些條文的規(guī)范意旨,使得個人信息保護能夠在生成式人工智能背景下落到實處。
雖然生成式人工智能的確需要通過法律從規(guī)范層面進行約束,但是法律從來都不是萬能的,其只能調(diào)整社會生活的某一些領(lǐng)域和內(nèi)容,所以規(guī)范層面的個人信息保護或許只是一個面向。歐盟委員會在《可信AI的倫理指南草案》中指出,需要對人工智能技術(shù)的開發(fā)和應(yīng)用全過程進行持續(xù)性評估,要從技術(shù)方法和非技術(shù)方法兩個層面入手。規(guī)范生成式人工智能下的個人信息保護很大程度上采取同樣的邏輯,不能僅靠法律規(guī)范,更不能僅靠幾個原則性規(guī)范,更重要的是要從內(nèi)部技術(shù)和外部監(jiān)管兩個層面著手相互促進,以期實現(xiàn)綜合治理目的。
技術(shù)問題的治理應(yīng)該首先立足于有效的技術(shù)手段,如一項新興技術(shù)引發(fā)的社會問題能夠依靠技術(shù)手段予以內(nèi)部優(yōu)化,那么治理路徑應(yīng)該以技術(shù)為先。正如與生成式人工智能面臨類似問題的算法,很重要的一點便是應(yīng)該嘗試著從對代碼和算法結(jié)果的規(guī)制轉(zhuǎn)向?qū)Υa和算法過程本身的規(guī)制,而技術(shù)本身便是對過程最直接和最高效的規(guī)制手段。
對個人信息的使用和訪問本身就涉嫌構(gòu)成侵權(quán),即并不以出現(xiàn)損害結(jié)果為侵害個人信息的要件,因此對于涉及個人信息(尤其是敏感個人信息)的數(shù)據(jù)應(yīng)當通過加密和去標識化的方式進行管理。生成式人工智能無論是在訓(xùn)練過程中還是分析過程中原則上都應(yīng)當無法對個人信息數(shù)據(jù)進行識別和讀取。但從目前已知的信息看,ChatGPT所訓(xùn)練和訪問的數(shù)據(jù)庫并不能夠保障不涉及其他數(shù)據(jù)庫的個人信息,并且其還會獲取、儲存在使用過程中知悉的個人信息,也沒有寫明儲存方式。在數(shù)據(jù)安全風險層面,評估范圍應(yīng)僅以算法模型與人工智能系統(tǒng)功能實現(xiàn)需要的數(shù)據(jù)集合為限。對于數(shù)據(jù)的加密處理是現(xiàn)代互聯(lián)網(wǎng)背景下最基礎(chǔ)的要求之一,但是當前很多數(shù)據(jù)都是以明文傳輸和儲存在網(wǎng)絡(luò)系統(tǒng)和大數(shù)據(jù)系統(tǒng)中。尤其云計算環(huán)境下,用戶數(shù)據(jù)保存在云端,而保存在云端的數(shù)據(jù)副本常常未經(jīng)過加密存儲。個人信息保護法第51條也要求個人信息處理者必須采取密碼技術(shù)和去標識化等方式保障個人信息安全。無論是生成式人工智能背后的主體還是其他信息化網(wǎng)絡(luò)主體,都需要加強加密儲存信息的能力。對個人信息加密儲存在技術(shù)上并不存在難以克服的障礙,而計劃對已加密的個人信息不當獲取卻需要十分高超的技術(shù)和一定的成本,在邏輯上能夠通過加密去標識化這一較小投入避免個人信息泄露的風險。生成式人工智能因其不僅是自身個人信息庫的獲取、儲存方,也是其他個人信息庫的使用方,亟待需要對其運行過程中涉及兩大類個人信息通過加密、去標識化的方式妥善保存。
通過對個人信息的加密儲存,已然能夠在很大程度上減少生成式人工智能對個人信息的可獲及性,也能夠預(yù)防生成式人工智能自身導(dǎo)致的個人信息泄露問題。但是現(xiàn)實中存在很多看似無關(guān)緊要的個人信息未得到妥善保存或者已然被互聯(lián)網(wǎng)所公開。基于此,生成式人工智能在獲取、分析、識別、形成答案的過程中應(yīng)通過技術(shù)手段防止同一主體的不同個人信息被過度集中。例如,如果提問者的一個問題生成式人工智能需要結(jié)合同一個主體的多項個人信息形成結(jié)論,應(yīng)通過技術(shù)手段使其無法同時使用同一主體的數(shù)個不同的個人信息。一旦同一主體的多個個人信息進入到分析階段便自動產(chǎn)生程序錯誤,無法生成有效回答。這種方式能夠在最大程度上防止生成式人工智能搜索信息便捷性和全面性所帶來的弊端。同一主體多個信息的互斥看似需要強大的技術(shù)手段為保障,實質(zhì)上只需要在獲取答案的過程中識別出涉及個人信息的內(nèi)容,通過信息主體識別的方式進行分析,如果某些個人信息共同指向一個主體,便需要產(chǎn)生互斥效果。
對于生成式人工智能的結(jié)果一旦生成公開,便已然無可挽回。因此,對于生成結(jié)果前的強篩查應(yīng)該作為技術(shù)層面的最后一道閥門。OpenAI公司專門訓(xùn)練了一個對有害內(nèi)容進行過濾的AI模型(即過濾模型),來識別有害的用戶輸入和模型輸出(即違反其使用政策的內(nèi)容),從而實現(xiàn)對模型的輸入數(shù)據(jù)和輸出數(shù)據(jù)的管控。此種過濾模型也可以應(yīng)用于個人信息保護領(lǐng)域。
生成式人工智能還具備根據(jù)已知信息推斷未知信息的能力,即使將信息源頭進行封鎖也不能完全避免個人信息被推導(dǎo)生成,外加生成式人工智能還存在著結(jié)果非精確性的特點,因而最后的篩查環(huán)節(jié)便顯得格外必要。非精確性固然在技術(shù)上無法避免,但是關(guān)于個人信息的保護卻有章可循,即一旦系統(tǒng)發(fā)現(xiàn)可能生成的結(jié)果涉嫌某個主體的個人信息,或出現(xiàn)有關(guān)個人信息的敏感詞在技術(shù)層面很容易審視并攔截過濾。同時,如果針對同一主體詢問的信息或者被詢問的信息多次存在攔截情形,此項信息應(yīng)被著重審查和監(jiān)管。
對于生成式人工智能外部監(jiān)管而言,學(xué)者提出的監(jiān)管沙盒理論或許缺乏其適用的空間。首先生成式人工智能本身完全不同于金融的強監(jiān)管、經(jīng)許可的基層框架,無法通過部分許可測試的方式推進。更主要的是生成式人工智能適用范圍早已無法控制,即使是官方尚未開放的地區(qū),也鮮少人從未使用。因此在生成式人工智能的背景下,欲通過外部限制的方式保障個人信息,需要聚焦于知情同意,通過對隱私權(quán)和個人信息保護的并舉,最終回到生成式人工智能的責任問題。
知情同意機制是個人信息保護制度的基石,其理論基礎(chǔ)在于個人信息自決權(quán)。不僅對于個人信息的搜集需要受到知情同意原則的限制和規(guī)范,對于個人信息的使用、二次加工、公開等都需要經(jīng)過權(quán)利人針對性的知情同意。學(xué)者提出的個人信息處理三重授權(quán)原則也強調(diào)平臺收集和向第三方分享須充分告知并經(jīng)用戶授權(quán),第三方獲取和利用前述數(shù)據(jù)既要平臺授權(quán)也要用戶再次明確授權(quán)。生成式人工智能作為原本知情同意主體外的第三方,在并不享有任何豁免事由的前提下,一旦涉及某個主體的個人信息,基于合同的相對性原理,在邏輯上都需要經(jīng)過權(quán)利人單獨的知情同意。對知情同意并不能做簡單化、機械化、概括化理解,要從告知方式的合理性、決定的選擇性、同意的有效性等方面結(jié)合具體場景加以判斷。以ChatGPT為代表的生成式人工智能在絕大多數(shù)情形中并未完成任何個人信息領(lǐng)域的知情同意,有學(xué)者指出ChatGPT在通用數(shù)據(jù)保護條例下存在四個問題,其中之一便是在用于訓(xùn)練ChatGPT的大量數(shù)據(jù)中,收集人們的個人信息“沒有法律依據(jù)”。在未經(jīng)知情同意的情況下生成式人工智能對個人信息任何針對性的活動都不被法律允許,嚴重者則會涉及民事賠償、行政處罰,甚至是侵犯公民個人的刑事犯罪。因此生成式人工智能必須要貫徹知情同意原則,個人信息“回應(yīng)型治理框架”值得借鑒。對于生成式人工智能不僅需要清晰化告知使用生成式人工智能過程中會被搜集和使用個人信息,還需要對其訓(xùn)練和使用過程中涉及的原數(shù)據(jù)庫信息獲得知情同意,對于未經(jīng)知情同意的個人信息并不具備豁免同意的空間。
面對大數(shù)據(jù)技術(shù)正使個人信息與非個人信息的二元區(qū)分逐漸失去意義這一困境,隱私權(quán)的討論就顯得十分必要。一方面,個人信息的本質(zhì)也是隱私權(quán)分離出的內(nèi)容,我國民法典和個人信息保護法采納了個人信息與隱私權(quán)界分的保護策略。另一方面,有學(xué)者也關(guān)注到隱私權(quán)從個人本位向社會理論的轉(zhuǎn)變。在生成式人工智能背景下不僅需要關(guān)注個人信息保護問題,還需要重新思考隱私權(quán)和個人信息的密切關(guān)系。
民法典對于侵害隱私權(quán)的免責事由要求“權(quán)利人明確同意”,而對于個人信息處理的免責事由要求“同意”,立法區(qū)別表明對隱私信息的收集必須是明示。根據(jù)舉輕以明重原則,生成式人工智能背景下對于個人信息的保護暗含了對于隱私權(quán)的保護內(nèi)容。即使個人信息的客觀標準為生成式人工智能所“價值判斷”化,隱私權(quán)也能夠提供一個有效的紅線,即隱私的核心特征在于自然人對于涉及自身內(nèi)容的非公開性意愿,保護的是自然人的自主決定自由。同時,隱私權(quán)作為一個由來已久的概念相對個人信息在很大層面上更具有共識性和包容性,對于一些可能并不屬于個人信息的內(nèi)容,也能夠通過私密性這一要件為隱私權(quán)所涵射進行保護。隱私權(quán)的介入不僅能夠為個人信息保護提供客觀化的依據(jù),還能夠合理擴充權(quán)益保護范圍。面對生成式人工智能對個人信息造成的沖擊,也許聚焦個人信息保護本身不能夠提供有效的路徑和保障,那么便可以借助隱私權(quán)的方式應(yīng)對個人信息自身所無法克服的困境。
在技術(shù)中立的背景下,算法往往由于價值缺失、設(shè)計缺陷或信任危機而產(chǎn)生嚴重的算法風險,但是,生成式人工智能的可歸責性、歸責主體、歸責原則等問題一直也是討論的熱點?!渡墒饺斯ぶ悄軙盒泄芾磙k法》中規(guī)定的責任主體是“提供者”,提供者在諸多核心要素方面充當著“把關(guān)人”和決定者的角色。傳統(tǒng)的網(wǎng)絡(luò)侵權(quán)往往存在兩方主體(網(wǎng)絡(luò)服務(wù)提供者和受害人)或三方主體(增加網(wǎng)絡(luò)用戶),生成式人工智能則會涉及多重主體。生成式人工智能服務(wù)提供者并非搜索鏈接服務(wù)提供者。有學(xué)者從人類意志特征、行為能力和擬制主體三個層面論述了生成式人工智能責任能力的現(xiàn)實基礎(chǔ)。從實現(xiàn)層面而言,根據(jù)“代理說”,應(yīng)由生成式人工智能系統(tǒng)所屬主體和個人信息保管主體在發(fā)生個人信息泄露或侵權(quán)的情形下,根據(jù)各自相應(yīng)過錯承擔按份責任。至于使用者是否需要承擔責任需要進行討論:首先,使用者和個人信息權(quán)益者之間有一道界限,即生成式人工智能,生成式人工智能不是傳統(tǒng)意義上的工具,因此應(yīng)由生成式人工智能系統(tǒng)所屬主體和個人信息保管主體(二者可能發(fā)生重合)作為直接侵權(quán)者對外承擔責任。其次,故意通過生成式人工智能獲取他人個人信息屬于風險的最初締造者,在生成式人工智能系統(tǒng)所屬主體和個人信息保管主體承擔責任后可向使用者進行追償。再次,對于過失侵權(quán)他人個人信息權(quán)益需要區(qū)分重大過失還是普通輕過失,重大過失需要承擔相應(yīng)的責任,即可被按照一定比例追償,而普通輕過失則無須承擔責任。對于生成式人工智能自身在對話過程中所獲知的個人信息需要被妥善儲存。但據(jù)ChatGPT的隱私政策顯示,ChatGPT會記錄使用者在其中鍵入的所有內(nèi)容??赡軙ο?、上傳的任何文件以及提供的任何反饋中收集個人信息。所以國家層面需要通過嚴格的責任倒逼生成式人工智能開發(fā)端、個人信息保護端均承擔起各自本應(yīng)肩負的個人信息保護責任和使命。
生成式人工智能的出現(xiàn)著實令每一個人都眼前一亮,人工智能的發(fā)展早已遠遠超出十年前科幻小說的預(yù)測。時至當下,我們已邁向快速發(fā)展的新時代,生成式人工智能已然成為大的趨勢,我國科技企業(yè)也應(yīng)當擔負起重大的歷史使命,參與更為公平合理的國際數(shù)字規(guī)則體系建構(gòu)。但不能只是技術(shù)在發(fā)展,主體意識也需要驅(qū)動,我們要加強保護每個主體所應(yīng)享有個人信息的權(quán)益。誠然,過于超前地規(guī)劃立法方案和建構(gòu)規(guī)制路徑,可能會阻礙人工智能技術(shù)的創(chuàng)新,但是過于滯后的保障也會使得人之為人的主體權(quán)益被踐踏。在生成式人工智能背景下保障個人信息不是為了限制技術(shù),而是為了讓技術(shù)只是技術(shù)。
薛少雄 蔡鈺菲|人工智能產(chǎn)品研發(fā)中軟件接口的合理使用研究——以O(shè)racle v. Google案為例
金旭雯|人工智能生成內(nèi)容著作權(quán)“賦權(quán)熱”背后的冷思考——從人工智能“文生圖”侵權(quán)第一案切入
特別聲明:本文經(jīng)上觀新聞客戶端的“上觀號”入駐單位授權(quán)發(fā)布,僅代表該入駐單位觀點,“上觀新聞”僅為信息發(fā)布平臺,如您認為發(fā)布內(nèi)容侵犯您的相關(guān)權(quán)益,請聯(lián)系刪除!
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
相差近10倍!滬一租戶被薅羊毛三年多,竟是因為
火爆全網(wǎng)的奔馳加塞事件,徐老太女兒再發(fā)聲,疑暗諷奔馳車主:有過不認,盡茍且之事
切爾西5-0進英聯(lián)杯16強 恩昆庫戴帽 菲利克斯造2球 7千萬新援首球
證監(jiān)會:主要指數(shù)成份股公司應(yīng)制定市值管理制度 長期破凈公司應(yīng)當披露估值提升計劃;禁止上市公司以市值管理為名實施違法違規(guī)行為
內(nèi)容與課本同步的#全優(yōu)沖刺100分測評卷 讓孩子夯實基礎(chǔ)知識,提優(yōu)鞏固 #小學(xué)同步試卷 #單元測試卷...
他研究了N位世界名人,終于發(fā)現(xiàn)“大器晚成”的奧秘...普通家庭千萬別過早消耗孩子元氣4166am金沙信心之選