三個法門破解ChatGPT數(shù)據(jù)泄露
從ChatGPT數(shù)據(jù)泄露事件,看組織安全穩(wěn)定自動化的重要性
從自動化看ChatGPT數(shù)據(jù)泄露,安全穩(wěn)定是自動化的運行基石
安全防范、合成數(shù)據(jù)與穩(wěn)定自動化,三個法門破解ChatGPT數(shù)據(jù)泄露
ChatGPT陷入數(shù)據(jù)安全泥潭,如何繼續(xù)安全使用高效AI神器?
多家企業(yè)禁用多個國家禁止,AI神器ChatGPT真的不能使用了嗎?ChatGPT數(shù)據(jù)泄露風險如何控制?以自動化系統(tǒng)進行控制是個思路
文/王吉偉
有圖有真相的時代,徹底一去不復返。
荷蘭的一個AI繪圖玩家,用幾張“特朗普被捕”照片生動演繹了什么叫作AI生萬物。那些清晰到毛孔可見的照片,告訴我們沒有圖片是AI不能生成的。
有了這些圖片的啟發(fā),很快馬斯克就擺起了地攤,愛因斯坦也站在了印度街頭。
這些圖片的背后是沒有繪畫功底的玩家,玩家的背后則是正在顛覆設計界的生成式AI繪圖工具Midjouney。
整個圖片生成的過程都與繪畫沒有任何關系,生成的圖片卻比各種人工繪圖更加真實。整個創(chuàng)作圖片的游戲規(guī)則,都被基于AI大模型的生成式AI改變了。
新的游戲規(guī)則不只改變了創(chuàng)作過程,更改變了很多企業(yè)的設計業(yè)務流程,現(xiàn)在砍掉原畫團隊的游戲公司比比皆是。僥幸留下的設計師們,一邊在隨時被裁員的恐懼中瑟瑟發(fā)抖,一邊廢寢忘食學習AI繪圖。
企業(yè)同樣感受到了游戲規(guī)則改變帶來的恐懼。他們不只使用Midjourney、Stable Diffusion等繪圖工具,更是積極地引入名聲更響亮的ChatGPT。
ChatGPT所帶來的效率提升與成本下降顯而易見,只是很多企業(yè)現(xiàn)在更加恐懼了?謶值脑,不只是因為ChatGPT發(fā)現(xiàn)了數(shù)據(jù)安全漏洞,更在于很多企業(yè)的員工在與ChatGPT交互時泄露了大量的敏感數(shù)據(jù)。
這些數(shù)據(jù),都已經(jīng)上傳到ChatGPT的服務器,并且有很大可能被用于模型訓練。
三星公司就正在為此頭痛不已。他們已經(jīng)擁有三次敏感數(shù)據(jù)泄露的先進經(jīng)驗。“用ChatGPT學習先進芯片制造技術”也已經(jīng)成為一個梗,用來表述使用ChatGPT所付出的代價。
有了三星的前車之鑒,現(xiàn)在已經(jīng)有很多公司開始禁用ChatGPT。大型公司的集體舉動,讓對數(shù)據(jù)敏感的金融機構迅速跟進,美國、日本等多地的多家金融機構都已禁用ChatGPT。連鎖反應更是影響了多個國家,意大利、德國等都在禁止和調查ChatGPT。
目前廣大組織對于ChatGPT所帶來的安全風險,主要集中在與之交互后所造成的敏感信息泄露方面。交互得越多泄露數(shù)據(jù)的可能性也就越大,而想要生成更符合需求的內(nèi)容就需要更多的信息。更高效率與更大風險的矛盾,成了廣大組織為之撓頭的問題。
從自動化角度而言,ChatGPT等生成式AI的優(yōu)勢之一,便在于其所帶來的更加直接與顛覆的業(yè)務自動化。但近期ChatGPT的大量封號、安全漏洞、數(shù)據(jù)泄露以及被各國封禁,對引入ChatGPT的組織運營帶來了很大的不穩(wěn)定性,嚴重者甚至影響企業(yè)正常運營。
可見,在流程自動化已經(jīng)成為企業(yè)標配的當下,安全穩(wěn)定的自動化真的太重要了。
出現(xiàn)這么多問題,是不是意味著ChatGPT以后就不能使用了?又該如何實現(xiàn)安全穩(wěn)定的自動化?本文,王吉偉頻道就跟大家聊聊這些。
ChatGPT負面消息不斷
3月底,網(wǎng)上流傳了一份似是而非的針對GPT-5研發(fā)的請愿信。
大體內(nèi)容是,未來生命研究所(Future of Life Institute)公布了一封請愿信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統(tǒng)至少6個月。同時,該公開信寫道,廣泛的研究表明,具有與人類競爭智能的人工智能系統(tǒng)可能對社會和人類構成深遠的風險。
據(jù)說,這封信有一千多名科技人員簽名,除了馬斯克、谷歌副總裁兼工程研究員辛頓和Robust.AI首席執(zhí)行官兼創(chuàng)始人馬庫斯之外,還包括蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)等人。
之所以說它似是而非,是因為這封信發(fā)出后便引發(fā)質疑,被指簽名造假、誤導公眾以及推動AI炒作。甚至有消息說這封信是由AI生成的,用AI生成勸阻AI研發(fā)的請愿信,是不是有些諷刺?
或許為了給此事推波助瀾,還有人在設置一定條件后,詢問ChatGPT想對人類做的第一件事情是什么,得到的答案是:毀滅人類。
當然,這個問題也很有可能是由AI生成的。特朗普和馬斯克出現(xiàn)在各地街頭的圖片告訴我們,AI時代大家圍觀的再也不可能是真相,因為用AI造假的成本比學習P圖技術低太多。
但不管真假與否,似乎是“請愿信”起了作用,美國相關部門還是召開了專項會議。
據(jù)美聯(lián)社報道,美國總統(tǒng)拜登于當?shù)貢r間4月4日在白宮與科技顧問舉行會議,討論人工智能給人類、社會和國家安全帶來的“風險和機遇”。會議上,拜登重點討論了保護權利和安全的重要性,以確保負責任的創(chuàng)新和適當?shù)谋U洗胧,并呼吁國會通過兩黨隱私法以保護孩子,以限制科技公司收集所有人的個人數(shù)據(jù)。
這個會議,意味著在OpenAI激進的商業(yè)化推進之下,以ChatGPT為代表的生成式AI的野蠻發(fā)展受到了高層重視,當然也預示著各種監(jiān)管、整頓和改進也將落到這些AI企業(yè)的頭上。
所以,不只是國內(nèi)在整頓ChatGPT等生成式AI爆發(fā)后引起的各種亂象,各國都在數(shù)據(jù)安全層面發(fā)布了不同程度的法規(guī)政策。
3月31日,意大利個人數(shù)據(jù)保護局宣布,即日起暫時禁止使用聊天機器人ChatGPT,并表示已對ChatGPT背后的OpenAI公司展開調查。
意大利封禁ChatGPT所援引的法律工具是歐盟《通用數(shù)據(jù)保護條例》(GDPR),除了大型互聯(lián)網(wǎng)公司,GDPR也能拿來監(jiān)管新出現(xiàn)的人工智能公司。需要說明的是,歐洲的隱私監(jiān)管機構往往獨立于政府,在隱私保護上權力很大。
歐洲對于數(shù)據(jù)安全有很高的敏感性,對于涉及到的相關技術及產(chǎn)品如果有很大的爭議,一些國家便會快速跟進。
法國和愛爾蘭的隱私監(jiān)管機構已經(jīng)與意大利的同行聯(lián)系,以了解更多關于禁令的依據(jù)。西班牙的監(jiān)管機構也表示,不排除未來會對ChatGPT進行調查。
德國政府發(fā)言人曾對媒體表示,沒有必要禁止ChatGPT,但很快德國聯(lián)邦數(shù)據(jù)部門就表示可能會效仿意大利,出于對數(shù)據(jù)安全保護的考量而選擇禁止ChatGPT。
相信有三星半導體數(shù)據(jù)泄露的前車之鑒,有奔馳等大型企業(yè)的德國不可能對此視而不見。
還有一些國家尚未公布相應的法規(guī)政策,但廣大企業(yè)都開始謹慎對待ChatGPT。生成式AI尤其是ChatGPT所帶來的數(shù)據(jù)安全等問題正在引起他們的擔憂,甚至已到了禁用ChatGPT的地步。
危害比預想的大
3月23日,ChatGPT首次遭遇了重大個人數(shù)據(jù)泄露。
不少推特網(wǎng)友爆料,在ChatGPT網(wǎng)頁左側的聊天記錄欄中出現(xiàn)了他人的聊天記錄內(nèi)容,一些用戶甚至可以看到活躍用戶的姓名、電子郵件地址、支付地址、信用卡號等信息。
即便OpenAI很快就修復了漏洞,并在第二天發(fā)布了聲明向用戶和整個ChatGPT社區(qū)致歉,但這個事件也讓很多人開始擔心隱私泄露。尤其是那些把ChatGPT當作情感陪護的用戶,不知道對ChatGPT傾訴了多少隱私,怕是目前仍在瑟瑟發(fā)抖。
此事件更讓用戶意識到,OpenAI的安全系數(shù)并沒有那么高。聊得越多,發(fā)送到OpenAI服務器上隱私數(shù)據(jù)也就越多,這些數(shù)據(jù)有可能被拿去用于訓練AI模型。一些人看在ChatGPT能夠帶來極大方便的份上也就忍了,但如果哪一天ChatGPT被黑客入侵,自己隱私數(shù)據(jù)也將被盜走,后果可想而知。
同樣在為數(shù)據(jù)泄露發(fā)愁的,還有三星公司。
三星因使用ChatGPT造成數(shù)據(jù)泄露的事情,現(xiàn)在已經(jīng)成了典型案例。該公司從3月11日起向其半導體部門的員工授予ChatGPT的使用權限(其他部門仍被禁止),三星的員工向 ChatGPT 提問各種問題以提升工作效率。
由此,三星的機密數(shù)據(jù)就不知不覺地泄露了,短短幾周就發(fā)生了三起。這三起事件分別是:用ChatGPT優(yōu)化測試序列以識別芯片中的錯誤;用ChatGPT 將公司有關硬件的會議記錄轉換成演示文稿;用ChatGPT修復專有程序的源代碼錯誤。
每個事件,都涉及了不少企業(yè)經(jīng)營的敏感數(shù)據(jù)。
三星員工與ChatGPT交互的問題都要上傳到OpenAI的服務器,由于ChatGPT保留了用戶的輸入數(shù)據(jù)來進一步訓練自己,也就是說三星的這些商業(yè)機密現(xiàn)在實際上掌握在了OpenAI的手中。
網(wǎng)友調侃,三星再發(fā)生幾次數(shù)據(jù)泄露事件,大家就可以用ChatGPT學習制造高端芯片了。
ChatGPT提升工作效率的效果是顯著的,但是所造成的商業(yè)損失也可能是巨大的。所以企業(yè)在使用ChatGPT之前一定要制定使用規(guī)范,并對員工進行充分的提醒和培訓,讓其知曉哪些信息不能與ChatGPT進行交互。
目前三星部門仍在使用ChatGPT,并開發(fā)出內(nèi)部AI工具將能夠輸入的prompts限制在 1024。只是,被限制的ChatGPT又能發(fā)揮多少效能?
對于是否繼續(xù)使用這樣一個“殺敵一千可能自傷一萬”的超級AI工具,三星應該已經(jīng)心有定計。該公司已經(jīng)再三聲明若未來再發(fā)生類似事件,將禁止使用ChatGPT。
生成式AI躲不開的安全問題
嚴重警告或者禁止使用ChatGPT的大型企業(yè),已經(jīng)不止一家。
亞馬遜律師曾警告員工,不要與ChatGPT分享任何亞馬遜的機密信息包括正在編寫的代碼,因為這可能會將其用于訓練未來的模型。
在金融領域,美國銀行、花旗集團、德意志銀行、高盛集團、富國銀行、摩根大通和Verizon等多家機構,均已經(jīng)禁止員工使用ChatGPT處理工作任務。
日本的軟銀、富士通、瑞穗金融集團、三菱日聯(lián)銀行、三井住友銀行等,也限制了ChatGPT的商業(yè)用途。
終究是搞金融的企業(yè)對數(shù)據(jù)更加敏感,在可能的損失與高效率之間,集體選擇了前者。
目前的很多事件已經(jīng)對外昭示,ChatGPT給企業(yè)帶來的風險比想象中的高很多。
除了個人隱私和企業(yè)敏感數(shù)據(jù)泄露,上線不到5個月的ChatGPT,已經(jīng)成功讓全球很多用戶對它產(chǎn)生了很大的依賴。
一些人已經(jīng)對ChatGPT產(chǎn)生了依賴癥,主要表現(xiàn)為ChatGPT崩潰24小時期間全球用戶的叫苦不迭,以及Plus用戶瘋漲和更大API調取需求所帶來的OpeanAI算力吃緊以至暫停1天時間的Plus會員升級與充值服務。
雖然這種依賴已造就了巨大的市場,但它同時也意味著更多的數(shù)據(jù)被上傳到OpenAI服務器。比如讓ChatGPT進行代碼修復、表格生成、PPT制作等操作時,相關數(shù)據(jù)可能就會泄露企業(yè)的各種數(shù)據(jù)與隱私,有些企業(yè)甚至并未察覺。
還有一種可能在于,雖然AI只是一種輔助工具,但當更多的人更加依賴這些更加智能的AI工具時,人們的創(chuàng)造性思維或許也將停步不前。而相對于人類的止步,AI卻在大步前行。
一直有傳聞OpenAI的GPT-5沒有快速發(fā)布,是因為他們還在對它的快速進化做更多的限制性功能設置,就連OpenAI的CEO都在擔心它可能會產(chǎn)生自我意識。
但最近又有消息透露GPT-5會在12月完成訓練,OpenAI的激進做法,讓很多人和組織感覺似乎留給人類的時間真的不多了,所以一些組織要求GPT-4推遲GPT-4商業(yè)版的發(fā)布還是有道理的。至少,要留給人類一些能夠跟上并管控AI的時間,不然它就會像一頭脫韁的野獸,變得難以控制。
關于AI未來發(fā)展的人文與倫理,我會在另一篇文章中跟大家探討,這里就不展開敘述。
生成式AI的數(shù)據(jù)泄露再度引起了人們對隱私計算和數(shù)據(jù)安全的探討。目前而言解決隱私泄露的方法有兩個:一是加強數(shù)據(jù)安全保護防患于未然,二是通過合成數(shù)據(jù)從根本上解決數(shù)據(jù)隱私問題。
其中合成數(shù)據(jù)算是一個新的思路,它是由計算機人工生產(chǎn)的數(shù)據(jù),來替代現(xiàn)實世界中采集的真實數(shù)據(jù),以保證真實數(shù)據(jù)的安全,不存在法律約束的敏感內(nèi)容和個人用戶的隱私。
目前廣大廠商已經(jīng)在布局這一領域,合成數(shù)據(jù)數(shù)量也正在以指數(shù)級的速度向上增長。Gartner數(shù)據(jù)顯示,2030年合成數(shù)據(jù)將遠超真實數(shù)據(jù)體量,成為AI數(shù)據(jù)的主力軍。
但即便合成數(shù)據(jù)發(fā)展再快,卻解決不了眼下ChatGPT所帶來的安全問題。所以,穩(wěn)定且安全的智能自動化就顯得更加重要。
穩(wěn)定安全自動化的重要性
從企業(yè)經(jīng)營角度來看,人工智能所帶來的最大優(yōu)勢體現(xiàn)在自動化上;蛘哒f借助AI技術,可以讓自動化進行得更加徹底。不管是更好的處理數(shù)據(jù)還是助力運營決策,給予大家最切實的反應就是很多業(yè)務可以自動化運行,帶來可觀的效率與成本。
所以,自動化是企業(yè)剛需,AI則可以賦能自動化在不同階段更好地服務企業(yè)。在兩者技術的發(fā)展進程中,AI技術每實現(xiàn)一定突破,都可以大幅提升自動化在穩(wěn)定性、適應性、易用性、安全性等各方面的能力。
RPA與AI技術的融合就是一個典型,現(xiàn)在所有RPA產(chǎn)品都已經(jīng)演變成為深度融合AI技術的智能自動化或者超自動化,在更多業(yè)務場景的流程自動化中扮演著越發(fā)重要的角色。
所有AI技術,都會通過直接或者間接的方式為組織經(jīng)營提供不同程度的自動化,F(xiàn)在而言,以ChatGPT、Midjourney等為代表的基于大模型的AI應用,對企業(yè)最大的影響也是通過自動化生成各種內(nèi)容和應用快速變革一些應用場景的業(yè)務流程,直接替代一些復雜流程,或者讓流程自動化變得更加簡單和純粹。
同時生成式AI與智能自動化相互協(xié)同,也讓企業(yè)打造的人機交互自動化層的運行效率更高。
生成式AI所帶來的企業(yè)運營變革是巨大的,但潛在的安全因素也是目前其所遇到的最大挑戰(zhàn)。
這個挑戰(zhàn)說起來挺嚇人,但在王吉偉頻道(id:jiwei1122)看來將之放到業(yè)務流程之中,并不是說數(shù)據(jù)泄露讓企業(yè)如何忌憚,而是這種風險所造就的不穩(wěn)定自動化,開始讓大家重估引入生成式AI技術的必要性。
這里所說的穩(wěn)定自動化,不只是軟件系統(tǒng)的穩(wěn)定運行,還包括數(shù)據(jù)安全、環(huán)境影響、政治因素、地域限制、代理應用等各種可能影響穩(wěn)定運行的因素。
對于一項新技術的引入與應用,如果不考慮各種風險,就會出現(xiàn)很多問題。比如最近有個創(chuàng)業(yè)公司就因為引入了ChatGPT而大刀闊斧的裁員,結果前幾天ChatGPT大面積封號,以至于公司不能正常運轉了,重新開始招聘。
在這一波封號潮中,很多正規(guī)公司的賬號都難以幸免,或多或少會影響企業(yè)的運營。
通過自動化系統(tǒng)控制生成式AI
相對于ChatGPT在數(shù)據(jù)泄露等方面的不穩(wěn)定,目前正在流行的基于RPA、低代碼、流程挖掘、NLP、OCR、DPI、ChatGPT等的智能自動化和超自動化解決方案就穩(wěn)定的多。
在生成式AI之前,智能自動化已經(jīng)實現(xiàn)了對話式流程創(chuàng)建,通過關鍵詞指令觸發(fā)去創(chuàng)建流程,F(xiàn)在很多RPA產(chǎn)品都已經(jīng)集成了GPT,主要應用是通過自然語言交互生成各種流程創(chuàng)建和執(zhí)行各種命令。
用生成式AI驅動部署在本地或者云服務上的智能自動化執(zhí)行業(yè)務操作,比如讓RPA執(zhí)行表格創(chuàng)建等,遠比直接用ChatGPT在云端生成相關內(nèi)容再返回要安全得多。
一定程度上,這種模式也算是應用生成式AI但把數(shù)據(jù)泄露風險降到最低的解決方案。如果企業(yè)能夠像三星一樣開發(fā)內(nèi)部AI工具對交互內(nèi)容做一定的限制,安全系數(shù)可以做到更高。
人為因素導致的數(shù)據(jù)泄露在數(shù)據(jù)安全中占了很高的比重,生成式AI則把這個因素進一步放大了。畢竟要生成更符合需求的內(nèi)容就要給他一定的數(shù)據(jù),有人甚至會給它喂十幾本書。給它的數(shù)據(jù)越多,泄露數(shù)據(jù)的風險也就越大。因此把操作人員的行為規(guī)范做好并進行一定的監(jiān)管,可能比想盡辦法限制技術更重要。
王吉偉頻道認為,現(xiàn)階段如RPA集成ChatGPT這樣,基于已有自動化系統(tǒng)和相應的技術限制并間接使用生成式AI,對于穩(wěn)定的自動化有著一定的必要性。三星SDS早已集成了GPT,如果推廣使用的是RPA+GPT的解決方案,相當于在員工與ChatGPT之間加入了一個中間隔離層,數(shù)據(jù)泄露問題可能也要小得多。
在企業(yè)數(shù)據(jù)安全方面,很多企業(yè)服務領域的廠商都會引入相應的安全標準及認證,通過外部審查、內(nèi)部自查等方式完善自身以及所提供服務的安全體系。大型廠商以及融資到C輪以后頗具規(guī)模的創(chuàng)業(yè)公司,也會引入相應的安全規(guī)范。
以RPA廠商而言,像來也科技、弘璣Cyclone等已在安全方面會引入SOC 2、ISO 27001等多項安全相關的認證。
這些認證,可以保證企業(yè)在運營中能夠遵守相關規(guī)范,也保障了他們對外輸出的產(chǎn)品和服務的安全性。而在這個基礎上打造的智能自動化+生成式AI的解決方案,可以讓自動化更加穩(wěn)定。
所以從這個角度而言,“軟件系統(tǒng)+生成式AI+數(shù)據(jù)安全”的自動化解決方案,或許更容易被廣大企業(yè)所接受。
后記:技術應用適當取舍
說到最后,上述種種情況,似乎就是一個軟件或者解決方案的全生命周期問題。你要為企業(yè)提供服務,就要為用戶進行全方位的考慮。既然大家想要應用生成式AI,自然要解決用戶所有顧慮。
相信過不了多久,OpenAI或者微軟也將會解決這個問題,生態(tài)商家們也會推出完善的解決方案。不然,ChatGPT在領域的落地與應用將是一個大問題。
同時除了直接調用API,OpenAI還可以與廣大企業(yè)合作進行模型部署與微調業(yè)務,讓大型企業(yè)能夠在本地或者自有云系統(tǒng)上部署自己的模型,否則在數(shù)據(jù)安全隱患的影響下大部分企業(yè)都會望ChatGPT生嘆了。
所以相對ChatGPT,百度文心一言幫助企業(yè)構建自己的模型和應用的模式,將會更受廣大組織的歡迎。
事實上,這個世界本來就沒有絕對的安全,使用什么樣的技術、工具乃至于人,都會伴隨著一定的風險。這個前提下,大家要做的,也就是對價值或者利益思考之后的取舍,僅此而已。
這樣想的話,是不是就簡單多了。
全文完
【王吉偉頻道,關注AIGC與IoT,專注數(shù)字化轉型、業(yè)務流程自動化與RPA,致力于探索AIGC時代產(chǎn)業(yè)發(fā)展與升級新機會,歡迎關注與交流!
原文標題 : 安全防范、合成數(shù)據(jù)與穩(wěn)定自動化,三個法門破解ChatGPT數(shù)據(jù)泄露

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?