不會錯(cuò)過大模型的vivo,要先做好AI安全

9月8日消息,“百模大戰(zhàn)”進(jìn)行的如火如荼,手機(jī)廠商也紛紛來分一杯羹。

繼華為、小米、OPPO等廠商之后,vivo的自研大模型也悄然亮相,8月中旬出現(xiàn)在了C-Eval(大語言模型的多層次多學(xué)科中文評估套件)排行榜上,以64.4的平均成績位列第五。

大模型對手機(jī)廠商來說,是一塊“必爭之地”,僅更智能的手機(jī)助手這一點(diǎn),就讓廠商們難以拒絕,并不斷布局和投入應(yīng)用。

不過,新技術(shù)的應(yīng)用必然也會帶來新的風(fēng)險(xiǎn),不久前,在2023 亞馬遜云科技 re:Inforce 中國站活動上,vivo 首席安全官(CSO)魯京輝表示,他們看到生成式人工智能首先被應(yīng)用最好的就是欺詐,vivo已經(jīng)識別出來深度合成的欺詐行為。

黑灰產(chǎn)是一個(gè)長期的話題,中國移動互聯(lián)網(wǎng)生態(tài)的全部產(chǎn)值大概是10萬億,其中有20%到30%最后進(jìn)入了黑灰產(chǎn)的池。尤其近兩年來,行業(yè)從業(yè)務(wù)驅(qū)動數(shù)據(jù)轉(zhuǎn)變成為數(shù)據(jù)驅(qū)動業(yè)務(wù),讓黑灰產(chǎn)的形態(tài)變得更加復(fù)雜。

在人工智能時(shí)代,數(shù)據(jù)是基礎(chǔ)設(shè)施,手機(jī)又承載了各式各樣的服務(wù),要推動人工智能行業(yè)的健康、有序、可持續(xù)發(fā)展,手機(jī)廠商就必須重視數(shù)據(jù)安全和個(gè)人信息保護(hù)。

AIGC時(shí)代,作為一個(gè)手機(jī)廠商必須要做的事情是什么?魯京輝認(rèn)為,作為一個(gè)終端廠商,對生成式人工智能的應(yīng)用是兩方面:第一個(gè)是對自身內(nèi)部提效的使用,第二個(gè)是要構(gòu)建相關(guān)的生成式人工智能的產(chǎn)品和服務(wù)去服務(wù)用戶。

“不管是基于Cloud based這種大模型的交互和人工智能的一些服務(wù)產(chǎn)品,還是剛才提到的端側(cè),我們都在做相應(yīng)的工作。而且我們不僅是做一個(gè)簡單的大語言模型的服務(wù)提供,還要在基于大語言模型服務(wù)提供的同時(shí),做好端側(cè)的內(nèi)容過濾和生成內(nèi)容的審核工作?!?魯京輝說道。

說到AI和安全的關(guān)系,過去一般在說兩個(gè)維度,一個(gè)是AI for Security,一個(gè)是Security for AI。病毒識別就是典型的AI for Security,隱私數(shù)據(jù)端側(cè)處理時(shí)也會有很多AI相關(guān)的技術(shù),比如隱私計(jì)算、聯(lián)邦學(xué)習(xí)。vivo的“1001個(gè)小技巧”,背后也有很多是跟AI For Security相關(guān)的。

而Security for AI,一個(gè)核心點(diǎn)是,過去的一些安全防護(hù)手段,在新的AI時(shí)代下不太好用了,要與時(shí)俱進(jìn)有一些新的技術(shù)手段去針對。

魯京輝提出來生成式人工智能要解決四個(gè)方面的問題:

要解決內(nèi)生安全的問題;要解決內(nèi)容安全的問題;要解決運(yùn)行安全的問題;要解決合規(guī)性的問題。

對于內(nèi)生安全的問題,核心是要做好相應(yīng)管理的基線、管理的流程/制度/規(guī)范/工具支撐,從數(shù)據(jù)源頭做到可控,保證數(shù)據(jù)是無毒無害的,有相關(guān)的技術(shù)要去支撐保證。

魯京輝介紹,vivo主要是做好作為一個(gè)智能手機(jī)廠商,在提供生成式人工智能服務(wù)的時(shí)候必須做好的工作,其他的有些是通過合作伙伴,包括亞馬遜云科技這樣的云服務(wù)廠商來共同來構(gòu)建。“因?yàn)閱渭円粋€(gè)廠商,是無法構(gòu)建一個(gè)健康、有序的生成式人工智能生態(tài)的?!?/p>

在采訪中,魯京輝強(qiáng)調(diào)到:“我們一定不會缺席生成式人工智能這場盛宴的,但是我們希望不是去宣傳,而是希望真正給用戶提供相應(yīng)的生成式人工智能產(chǎn)品和服務(wù)的同時(shí),一定要做好本分的安全和合規(guī)性的工作?!?/p>

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2023-09-08
不會錯(cuò)過大模型的vivo,要先做好AI安全
做好本分的安全和合規(guī)性的工作。

長按掃碼 閱讀全文