訂閱
糾錯
加入自媒體

誰在反ChatGPT?

作者|路世明

編輯|大   風(fēng)

科技突破不止會帶來變革,往往也會帶來一些潛在的風(fēng)險。

 自ChatGPT發(fā)布后,無數(shù)的用戶和企業(yè)仿佛看到了“未來”,投入到了狂熱的擁抱。然而在硬幣的另一面,ChatGPT也在經(jīng)歷一場“圍剿”。

 在國家層面,繼意大利宣布禁用ChatGPT后,多國政府和企業(yè)開始調(diào)查或采取措施限制使用該軟件。在領(lǐng)域?qū)用妫▎讨稳A盛頓大學(xué)、巴黎政治學(xué)院在內(nèi)的全球多所高校,都已宣布禁止學(xué)生在其學(xué)校的設(shè)備和網(wǎng)絡(luò)上使用ChatGPT,以預(yù)防學(xué)生作弊的行為。

 相比國家和某一領(lǐng)域,全球范圍內(nèi)的不少大型企業(yè),對于ChatGPT表現(xiàn)的更為“敏感”。

 科技企業(yè)里,三星、軟銀、松下、LG、臺積電、SK海力士等均已宣布對員工使用ChatGPT的限制。金融企業(yè)里,摩根大通已禁止其員工使用 ChatGPT。電商領(lǐng)域里,亞馬遜也曾禁止團(tuán)隊成員將機(jī)密客戶數(shù)據(jù)輸入ChatGPT......

 多家企業(yè)之所以對ChatGPT保持非常謹(jǐn)慎的態(tài)度,甚至是限用,并非不明白生成式AI所意味著的時代機(jī)遇,而是在意ChatGPT對企業(yè)“隱私安全”造成的威脅。

 企業(yè)越大,數(shù)據(jù)安全和隱私枷鎖余也會越重越牢固,自然也會更加謹(jǐn)慎地去對待類似ChatGPT的工具。

大廠“禁用”ChatGPT 

不久之前,三星推出了一項新政策,要求員工不得在工作場所使用OpenAI的ChatGPT和谷歌Bard等生成式人工智能。

 目前,三星員工被禁止在公司設(shè)備上使用人工智能工具,包括電腦、平板電腦、手機(jī)等。但員工仍可以在個人設(shè)備上使用人工智能工具,不過僅限于與工作無關(guān)的事情。備忘錄中還強(qiáng)調(diào),要求員工認(rèn)真遵守安全準(zhǔn)則,若違規(guī)并導(dǎo)致公司信息或數(shù)據(jù)泄露的話,員工將得到紀(jì)律處分,情節(jié)嚴(yán)重者將被解雇。 

圖:三星總部大樓

事實(shí)上,在三星這項“嚴(yán)厲”的新政策之前,全球范圍內(nèi),不少企業(yè)便陸續(xù)發(fā)布了“限制”自家員工使用ChatGPT的公告。

 首先對ChatGPT發(fā)出“不友好”聲音的企業(yè),來自金融行業(yè)。

 ChatGPT掀起熱潮不久后,今年2月,JP摩根大通、美國銀行、花旗、富國銀行等華爾街巨頭陸續(xù)表示將禁止或限制使用ChatGPT。據(jù)了解,摩根大通不準(zhǔn)員工在辦公室使用ChatGPT,其表示,有關(guān)禁令并非源自任何特定事件,而是基于公司對第三方軟件的正常管控。

 美國銀行例行提醒員工切勿使用未經(jīng)授權(quán)軟件時,也特別點(diǎn)名提到ChatGPT。德意志銀行更是表明,嚴(yán)禁員工在公司內(nèi)用ChatGPT,并從內(nèi)部阻斷連接OpenAI網(wǎng)站。而盡管高盛鼓勵編程人員采用AI來輔助編程,但禁止旗下交易員使用ChatGPT。

 日本方面,軟銀、日立、富士通、日本瑞穗金融集團(tuán)等企業(yè)也開始限制ChatGPT等交互式人工智能服務(wù)在商業(yè)運(yùn)作中的使用。

 相比金融行業(yè),科技行業(yè)的動作絲毫不慢。

 今年3月初,臺積電發(fā)布了一系列內(nèi)部公告,提醒員工謹(jǐn)慎使用網(wǎng)絡(luò)工具如ChatGPT或Bing AI Chat等。除三星外,同屬韓國企業(yè)的全球第二大存儲芯片巨頭SK海力士亦稱“除必要時刻外”,禁止公司內(nèi)網(wǎng)使用ChatGPT。

 不可否認(rèn),ChatGPT這樣的生成式AI對提高工作效率很有幫助,但對于這樣一個還不足夠成熟的AI工具來說,它所展現(xiàn)出的負(fù)面效應(yīng),并不小于它的正面效應(yīng)。就如同一把雙刃劍,在沒有“劍鞘”作為一種保護(hù)機(jī)制出現(xiàn)之前,對于ChatGPT的“圍剿”絕對不會停止。

 能夠預(yù)料的是,禁用ChatGPT的企業(yè),仍然會持續(xù)增加。 

數(shù)據(jù)安全是核心原因 

ChatGPT的火爆,實(shí)際上是“深度學(xué)習(xí)”大模型的成功。

 生成式AI工具,離不開大數(shù)據(jù)的幫助。它的進(jìn)化,需要海量的數(shù)據(jù)來訓(xùn)練,通過感應(yīng)器采集數(shù)據(jù),進(jìn)行信息存儲、加工,通過算力進(jìn)行計算,最后形成決策機(jī)制,進(jìn)行反饋。龐大的數(shù)據(jù)訓(xùn)練,造就了ChatGPT強(qiáng)大功能,但這也意味著,ChatGPT實(shí)際上在不斷地接觸各種對話,其中可能包含相關(guān)的敏感信息。

 無論是個人、企業(yè),還是國家層面,機(jī)密數(shù)據(jù)、文件隱私,都有可能在使用過程中被ChatGPT采集到,從而被大規(guī)模地擴(kuò)散。這些數(shù)據(jù)的泄露,也很有可能會對個人、企業(yè),甚至是國家造成重大的損失。

 三星無疑是一個典型的“受害者”。

 據(jù)了解,今年3月三星的半導(dǎo)體事業(yè)暨裝置解決方案事業(yè)部(DS)部門允許員工使用ChatGPT,隨后20天內(nèi)就發(fā)生了三起將公司內(nèi)部半導(dǎo)體數(shù)據(jù)上傳到ChatGPT的事件。

 其中,員工A用ChatGPT幫自己查一段代碼的bug;員工B想用ChatGPT幫自己優(yōu)化一段代碼;員工C想先用AI語音助手Naver Clova將自己的會議錄音轉(zhuǎn)成文字,再用ChatGPT幫他總結(jié)一下會議內(nèi)容,做成摘要。

 前兩起案件已分別導(dǎo)致三星公司的半導(dǎo)體設(shè)備測量資料、產(chǎn)品良率等機(jī)密內(nèi)容錄入到ChatGPT的學(xué)習(xí)資料庫中,這讓三星很是擔(dān)憂其數(shù)據(jù)將通過人工智能平臺最終落入其他用戶手中。

 不止三星,數(shù)據(jù)安全服務(wù)Cyberhaven曾檢測到并阻止了其客戶公司160萬名員工中,4.2%的人將數(shù)據(jù)輸入ChatGPT的請求,因?yàn)榇嬖谛孤稒C(jī)密信息、客戶數(shù)據(jù)、源代碼或監(jiān)管信息的風(fēng)險。

 Cyberhaven還發(fā)現(xiàn),隨著ChatGPT的應(yīng)用率越來越高,給它上傳企業(yè)數(shù)據(jù)的打工人數(shù)量也越來越多。一天之內(nèi)(3月14日),每10萬名員工就平均給ChatGPT發(fā)送了5267次次企業(yè)數(shù)據(jù)。 

來源:CyberhavenCyberhaven

數(shù)據(jù)顯示,在員工直接發(fā)給ChatGPT的企業(yè)數(shù)據(jù)中,有11%都是敏感數(shù)據(jù)。例如在一周內(nèi),10萬名員工給ChatGPT上傳了199份機(jī)密文件、173份客戶數(shù)據(jù)和159次源代碼。

 和三星一樣,所有“限用”ChatGPT的企業(yè),無論處于什么領(lǐng)域,基本都是出于數(shù)據(jù)保護(hù)的考量,都非常擔(dān)憂第三方軟件訪問敏感信息帶來的風(fēng)險。畢竟ChatGPT所處理的數(shù)據(jù)通常具有多樣性和復(fù)雜性,其數(shù)據(jù)的收集、存儲、傳輸、處理等各個環(huán)節(jié),都存在“合法性”問題。

 隨著ChatGPT在自然語言處理領(lǐng)域的廣泛應(yīng)用,人們面臨數(shù)據(jù)安全和隱私保護(hù)的挑戰(zhàn),正變得越來越巨大。 

機(jī)遇與風(fēng)險并存 

技術(shù)發(fā)展史,也是人類的一部恐懼史。

 15世紀(jì)的德國學(xué)者面對剛剛發(fā)明的古騰堡印刷機(jī)非常擔(dān)憂,認(rèn)為這會讓他們有永遠(yuǎn)也無法讀完的文獻(xiàn),而他們的作品也不再稀缺,而且會導(dǎo)致大量抄寫員失業(yè)。

 再到工業(yè)革命時期的“盧德運(yùn)動”,工人們拆除編織機(jī)的關(guān)鍵零件,襲擊倉庫,并威脅采取更多的暴力行動。實(shí)際上這些操作機(jī)器的工人非常清楚設(shè)備的生產(chǎn)效率,他們采取行動并非針對機(jī)器,而是針對廠方降低工資、裁撤崗位和忽視生產(chǎn)安全的做法。

 新技術(shù)問世后總會有一段過渡期,這也是社會對它關(guān)注最密切的時期。ChatGPT展現(xiàn)出的能力很強(qiáng)大,讓很多企業(yè)開始積極擁抱,也讓很多企業(yè)感到“害怕”。

 數(shù)據(jù)安全問題的確是不得不提防的一點(diǎn)。越是大公司,或者越是有著數(shù)據(jù)安全和隱私枷鎖的公司,越會謹(jǐn)慎地去對待類似的工具。三星的做法算是“穩(wěn)妥”的,畢竟大型企業(yè)除了內(nèi)部數(shù)據(jù),更重要的是掌握著很多客戶數(shù)據(jù),一旦發(fā)生了數(shù)據(jù)泄露事件,后果不堪設(shè)想。

 只是,有時候提防和運(yùn)用并不沖突。

 如何才能既能擁抱機(jī)遇,又能化解風(fēng)險?對于這些大企業(yè)們來說,目前似乎只有一條路可選,即研發(fā)出自己ChatGPT。這樣不僅解決了風(fēng)險,還能提高企業(yè)員工的工作效率。以三星來說,雖然“限用”ChatGPT,但并沒有完全禁止使用。

 為了避免內(nèi)部信息泄露,三星計劃開發(fā)自己的內(nèi)部AI工具,供員工完成軟件開發(fā)和翻譯等工作。此外,三星還向旗下所有的手機(jī)以及平板電腦產(chǎn)品推送了微軟Bing AI更新,在這一更新完成后,三星用戶可直接通過手機(jī)或者平板使用微軟Bing AI。

圖:三星手機(jī)內(nèi)嵌微軟Bing AI (語氣使用)

除了企業(yè)的主動防范,ChatGPT無疑也需要加強(qiáng)對用戶隱私的保護(hù),包括匿名化處理、數(shù)據(jù)去標(biāo)識化、隱私保護(hù)算法等。特別是在數(shù)據(jù)共享和開放研究方面,ChatGPT需要遵循相關(guān)法律法規(guī)和倫理準(zhǔn)則,采取有效的隱私保護(hù)措施,保障用戶的隱私權(quán)益。

 此外,ChatGPT需要積極參與到數(shù)據(jù)安全和隱私保護(hù)的標(biāo)準(zhǔn)制定和監(jiān)管政策建設(shè)中。通過制定統(tǒng)一的數(shù)據(jù)安全和隱私保護(hù)標(biāo)準(zhǔn),加強(qiáng)監(jiān)管和法律保障,促進(jìn)數(shù)據(jù)共享和合作,從而更好地保護(hù)用戶的隱私和數(shù)據(jù)安全。

       原文標(biāo)題 : 誰在反ChatGPT?

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號