不知道大伙兒還記不記得,幾個(gè)月前有個(gè)老板 10 分鐘被騙走 430 萬的 AI 詐騙事件?
【資料圖】
因?yàn)楸辉p騙的金額過于大,當(dāng)時(shí)還引起了不小的轟動(dòng)。
而在那之后,什么 9 秒被騙 245 萬, 7 秒視頻通話被騙 30 萬,類似的 AI 詐騙事件是接二連三。
更可怕的是,利用 AI 換臉、 AI 換聲,還 衍生出了一條灰色產(chǎn)業(yè)鏈 。
今年 3 月,一名女生在地鐵被偷拍后又被人換成全裸的照片,一度沖上了熱搜。
而像這種一鍵換臉,或者一鍵脫衣的違法行為在外網(wǎng)上可謂猖獗,有些人就是靠著販賣 AI 換臉軟件,或是幫助別人把臉換到色情視頻里,以此來賺錢。
雖說,咱們現(xiàn)在都知道有 AI 換臉這回事兒,但這東西它防不勝防, 即使臉和聲音都對得上,也不一定是本人。
這才是 AI 的可怕之處。
現(xiàn)在是有一些用于檢測內(nèi)容是否由 AI 生成的工具,但檢測的準(zhǔn)確性, emm 多少還是有點(diǎn)一言難盡。
前不久, OpenAI 還下線了自家的 AI 檢測工具,理由就是錯(cuò)誤率太高了。。。
所以要阻止技術(shù)濫用的問題,光靠檢測是不夠的,還得從根源上找法子。
最近,國外的創(chuàng)意內(nèi)容平臺(tái) Shutterstock 宣稱,要用一種叫做 C2PA 的協(xié)議,給自家平臺(tái)上的 AI 生成內(nèi)容打上標(biāo)簽,用來區(qū)分人類創(chuàng)作。
這 C2PA 協(xié)議 ,倒也不是啥新技術(shù)。
兩年前, Adobe 、微軟、 BBC 等幾家科技公司和媒體一起合作,成立了一個(gè)內(nèi)容來源和真實(shí)性聯(lián)盟 ( C2PA ) 。
成立的初衷呢也簡單,當(dāng)時(shí)受到 AI 等數(shù)字技術(shù)的影響,媒體發(fā)布內(nèi)容的可信度越來越低,于是這些個(gè)巨頭就想通過建立 C2PA 協(xié)議,打擊網(wǎng)絡(luò)上的一些虛假信息。
具體來看,這個(gè) C2PA 協(xié)議是一種類似區(qū)塊鏈的加密技術(shù)。
就比如說,一張圖像里包含了數(shù)百萬的像素, C2PA 通過數(shù)據(jù)加密技術(shù)給每個(gè)像素的來源信息進(jìn)行編碼,它最大的特點(diǎn)就是可以 溯源 。
簡單來理解,有了 C2PA 協(xié)議之后, 內(nèi)容是誰創(chuàng)作的,歷史的修改記錄,這些都會(huì)被記錄下來。
就相當(dāng)于給你的圖像、視頻打上了一層看不見的水?。?文本目前暫時(shí)還不適用 )。
這個(gè)協(xié)議雖說不能防止 AI 作惡,但有了水印之后,至少能反向解決 AI 檢測工具準(zhǔn)確率不高的問題。
當(dāng)你看到某段視頻的時(shí)候,到底是 AI 生成,還是人類創(chuàng)作的,一目了然。
C2PA 協(xié)議推出之后,已經(jīng)有部分企業(yè)將其集成到了自家的產(chǎn)品當(dāng)中。
像微軟,就已經(jīng)在自家的 Bing Image Creator 和 Microsoft Designer 里裝上了 C2PA 協(xié)議, AI 生成的圖像都會(huì)被標(biāo)記,并且還會(huì)披露出元數(shù)據(jù)的來源。
當(dāng)然了,這種加密方法也存在一定的 bug ,那就是需要有足夠多的內(nèi)容創(chuàng)作者和平臺(tái)使用這協(xié)議,不然也是白搭。
如果想要給平時(shí)拍的每一張照片都打上水印,這就需要把協(xié)議集成到手機(jī)相機(jī)里,又或者,你在 PS 上設(shè)計(jì)的圖片,也需要平臺(tái)集成了這個(gè)協(xié)議才行。
也就是說, C2PA 協(xié)議要生效,需要完整的使用鏈條。
可惜的是,目前在協(xié)議上,整個(gè)互聯(lián)網(wǎng)還沒形成統(tǒng)一的共識。
不過最近,來自 MIT 的大佬們,又推出了另外一個(gè)叫做 PhotoGuard 的工具。
這跟上邊兒的協(xié)議還不太一樣,如果說 C2PA 只是留下水印,那么 PhotoGuard 的方式就更簡單粗暴了,直接切斷了 AI 生成內(nèi)容的生路。
原理很簡單,就是利用 PhotoGuard 在原始照片中引入一種干擾的噪聲得到免疫圖片( immunize images ),但同時(shí)這種噪聲又很難被察覺出來。
當(dāng)有人想用圖片進(jìn)行 AI 惡搞時(shí),就會(huì)得到一堆馬賽克、或者扭曲的照片。
就比如論文中,原始照片是兩個(gè)男人在看打網(wǎng)球,如果沒有加防護(hù),那么就會(huì)被隨意更改,比如這樣。
但 PhotoGuard 可以生成一模一樣的免疫照片出來。
如果再有人想用 AI 來惡搞,就會(huì)得到一張這樣的照片。
一個(gè)是打水印,一個(gè)是直接把路封死,要真的跟 AI 詐騙打起來,還不是嘎嘎亂殺?
但問題也出在這, 技術(shù)有,但是還沒能大規(guī)模用起來。
即使有微軟、 Adobe 、 Arm 這些巨頭撐腰, C2PA 協(xié)議的大面積鋪開也還需要些時(shí)日,更別提剛出來的 PhotoGuard 了。
不過好在,事情還是朝著樂觀的方向在發(fā)展。
包括上邊兒提到微軟的兩個(gè)工具,還有 Shutterstock 平臺(tái),今年陸陸續(xù)續(xù)都開始用起來了。
照著這勢頭, C2PA 在不久的將來或許大有可為。
況且, C2PA 協(xié)議一直都是開源的,這就方便了很多人把協(xié)議集成到應(yīng)用當(dāng)中。
畢竟, AI 詐騙、灰產(chǎn)肆意橫行的同時(shí),也在反推大家思考如何加快反 AI 詐騙的步伐。
同時(shí)呢,像 C2PA 這種打水印的方式,也給 AI 生成內(nèi)容的版權(quán)問題,提供一個(gè)解決思路。
對于 AI 生成的內(nèi)容,大家爭論的關(guān)鍵點(diǎn)就是不希望自己的作品獻(xiàn)祭給 AI 。
那倘若生成的結(jié)果顯示數(shù)據(jù)來源了,作品收入也會(huì)根據(jù)來源來分成,那是不是也可以算作一種新的商業(yè)模式?
當(dāng)然了,這也只是一種假設(shè)。
回到反 AI 詐騙本身,技術(shù)的進(jìn)步固然重要,如果相關(guān)法規(guī)能適時(shí)再添一把火,相信也能好好治一治 AI 帶來的這股不良風(fēng)氣。
不管怎么說吧,在規(guī)范形成之前,咱還是多留個(gè)心眼,以后可能眼見也不一定為實(shí)咯。