久久精品日产第一区二区三区画质_www.xx日本在线_久久久国产老熟女_h片免费看久久_亚洲偷窃自拍_又色又爽又黄又刺激国产视频_国产操美女逼逼网站_一区二区产好的精华液

關(guān)注我們
荊楚網(wǎng) > 新聞頻道 > 辟謠

“刷臉”到底安不安全?人臉信息儲存在哪里?你擔(dān)心的問題看這里

發(fā)布時間:2021年03月04日15:55 來源: 央視新聞客戶端

如今,看一眼智能手機,就能自動喚醒屏幕,刷臉解鎖,很多人都習(xí)慣了不再手動輸入密碼;逛完超市,雙手提著購物袋,看一眼收銀臺的終端設(shè)備,就能刷臉支付,節(jié)省了大家排隊等待的時間。如此便利的體驗,都緣于人臉識別這項技術(shù)的普及。隨之而來的也有一些質(zhì)疑的聲音:我的人臉信息都儲存在了哪里?它是否受到了保護?我在不知情的情況下被采集了人臉信息,怎么辦?帶著這些問題,我們一起走進今天的節(jié)目。

“刷臉”威脅信息安全 是偏見還是有漏洞

目前,大眾是如何看待人臉識別這項技術(shù)的呢?記者在街頭隨機進行了采訪。

市民:(人臉識別)挺快的,所以不想再去麻煩,一遍一遍地輸密碼什么的。還是快捷了之后就不想再走老路。

市民:我覺得不是每一個場景都需要的??赡苤挥刑貏e重要的場景需要人臉識別,其他的時候其實指紋是很好的。以前指紋也挺安全的,現(xiàn)在換成人臉識別以后,就有點濫用了。

市民:不用記密碼了,然后影像也很難復(fù)制。我感覺是又方便又安全。

市民:其實人臉不是太隱私的東西了已經(jīng)。

市民:但它準確度可能沒那么高,有的時候會識別不出來。

市民:個人隱私、而且信息泄密。這個東西,渠道、數(shù)據(jù)到底掌握在誰的手里面。這是很危險的一個事其實。

其中的一些顧慮,是否是杞人憂天呢?不久前,由清華大學(xué)孵化的一個從事人工智能安全研究的團隊,向記者演示了這項技術(shù)所存在的安全漏洞。

總臺央視記者 杜思源:我們現(xiàn)在可以看到桌面上這些是比如說,門禁系統(tǒng)、考勤機還有一些智能手機,這也就是我們?nèi)粘I钪腥四樧R別常用的一些應(yīng)用場景,通過佩戴這樣的一副眼鏡,然后就可以把這個手機來解鎖,我們看一下這個過程。

演示人員 張旭東:那我先驗證一下,因為這個手機都錄入了我同事之前的照片,我現(xiàn)在直接來去測試的話,是沒有辦法解鎖手機的,都是提示人臉不匹配。

總臺央視記者 杜思源:那我們看一下戴上這個眼鏡會發(fā)生什么?

演示人員 張旭東:發(fā)現(xiàn)已經(jīng)直接解鎖了。我拿起手機就直接進入了系統(tǒng)的頁面。

總臺央視記者 杜思源:解鎖的速度都很快。

隨后,技術(shù)人員用相似的方式,將市面上共19款運用人臉識別技術(shù)解鎖屏幕的手機,逐一擊破。不僅如此,一些常用的人臉識別門禁系統(tǒng)、考勤打卡系統(tǒng),也存在相似的安全漏洞。

刻畫每張面孔特征 專家起底“算法”原理

通過技術(shù)手段就能夠攻破的人臉識別系統(tǒng),那還是可靠的身份識別方式嗎?回答這些質(zhì)疑,我們首先要了解這項技術(shù)究竟是什么,它又是如何被使用的。帶著這些問題,欄目記者采訪了中國科學(xué)院院士、清華大學(xué)人工智能研究院院長張鈸。我們一起來看他給出的解答。

清華大學(xué)人工智能研究院院長 張鈸:上個世紀60年代,當時用的方法基本上都是人工的辦法,對人臉上有好多的關(guān)鍵的點,比如說眼睛周圍的、嘴巴周圍那些點。把它標注出來,然后去計算這些點中間的距離,用點的分布和距離來區(qū)別不同的人臉。到了70年代的時候就發(fā)展為半自動。標準點是由人來標注,然后這個距離的計算是由計算機來進行。那么大家可以想象,這兩種方法都非常費時。到了本世紀初,大家都知道深度學(xué)習(xí)這個方法的出現(xiàn)。人臉識別也大多數(shù)采用這種模型,利用大數(shù)據(jù)的處理,使得人臉識別的性能提高了很多。所以現(xiàn)在我們可以看到,人臉識別在很多領(lǐng)域得到了應(yīng)用。

深度學(xué)習(xí)算法的成熟,使得人臉識別技術(shù)的應(yīng)用井噴式發(fā)展。如今,一個小小攝像頭記錄下人臉特征,被計算機提取為一串數(shù)據(jù);大量的數(shù)據(jù)再交由計算機去深度學(xué)習(xí),刻畫每一張面孔的關(guān)鍵特征。

清華大學(xué)人工智能研究院院長 張鈸:大體來講,我們現(xiàn)在的應(yīng)用場景是兩類。一類我們叫作人臉識別。抓到一個嫌疑犯的照片,或者從視頻里頭抓到,我們要看看這個人究竟是誰。所以這叫作一對N的對比。因為圖像庫里頭有好多人臉圖像,我們要從輸入的圖像里頭去找到跟它最接近的圖像。還有一種叫人臉驗證,比如說我們手機上的登錄。我們用人臉登錄,實際上這個手機里存的是你的人臉的圖像。一對一地對應(yīng)的。所以這樣它就比一對N要好做得多。

以酒店和餐飲行業(yè)為例。如今,我們時常遇到忙碌的智能機器人,一邊熱情地和我們打招呼,一邊為我們送餐,或者帶路。許多這樣的機器人,都裝有人臉識別攝像頭。

國家語音及圖像識別產(chǎn)品質(zhì)量監(jiān)督檢驗中心負責(zé)人 朱倩倩:這是我們云端助理機器人的一個后臺系統(tǒng)。實際上它是機器人頭部攝像頭拍攝到的畫面。我們可以讓測試對象面向機器人??纯此娜四樧R別功能。我們可以看到后臺的數(shù)據(jù)一直在更新。它識別到了我們的測試對象,輸出了他的身份信息。

總臺央視記者 杜思源:這是基于一種跟在庫人員的面部信息特征進行比對得到的一個輸出結(jié)果。

國家語音及圖像識別產(chǎn)品質(zhì)量監(jiān)督檢驗中心負責(zé)人 朱倩倩:是的。

總臺央視記者 杜思源:那這樣的一種技術(shù)在生活中有什么樣的應(yīng)用場景呢?

國家語音及圖像識別產(chǎn)品質(zhì)量監(jiān)督檢驗中心負責(zé)人 朱倩倩:比如說我們會展的迎賓、商場的引導(dǎo)、老人的陪護,還有金融領(lǐng)域等等。

人臉識別技術(shù)是“冷靜”的,它不會輕易誤判你五官之間的精確距離。因此,對于普通大眾而言,想要通過喬裝打扮騙過它,沒有那么容易;人臉識別技術(shù)也是“刻板”的。比如在之前實驗中我們所看到的,技術(shù)人員在面部疊加上人眼看起來毫無意義的圖片,就能冒用他人身份,騙過人工智能。為什么會這樣呢?專家向我們解釋了原因。

人工智能安全技術(shù)從業(yè)人員 田天:它其實(深度學(xué)習(xí))里面的一些內(nèi)在邏輯是人難以理解的,乃至說設(shè)計者其實也并不明白,這個算法是為什么能夠產(chǎn)生這樣子的工作效果。所以導(dǎo)致一個很大的問題是由于設(shè)計者也沒有辦法完全控制算法的輸出、算法的執(zhí)行邏輯,就導(dǎo)致其中里面一定會有一些執(zhí)行過程是跟設(shè)計者的意圖不吻合的。

清華大學(xué)人工智能研究院院長 張鈸:實際上這個算法是非常不安全的,非常容易受攻擊的,人識別對方不會因為對方的表情不一樣、對方戴著眼鏡,或者照明的看的角度稍微有點偏,他就不認識他,計算機很容易不認識。

現(xiàn)場揭秘 為何一張圖片就能騙過算法

在之前的實驗中,我們看到戴上一副眼鏡,就能騙過人工智能識別系統(tǒng)。那么這副眼鏡神秘在哪里呢?其實我們所看到的這副眼鏡,它可并不簡單,原因就在于貼在眼鏡上的那張圖片。而這張圖片也是經(jīng)過算法算出來的。我們繼續(xù)來看專業(yè)人士的演示。

人工智能安全技術(shù)從業(yè)人員 唐家渝:比如說我們想利用A的圖像去解鎖開B的手機,需要拿到B的一張照片。

演示人員 李連吉:我們在電腦上把這張照片保存到我們的工程文件夾里面。然后跑一下我們的一個算法的程序。跑完算法之后它們兩張圖片的相似度能達到百分之六十多。

總臺央視記者 杜思源:因為本來是兩個人的照片。對我們普通人來說人的識別能看出來它們是有區(qū)別的。算法能讓這兩個圖片在機器看來是相似的。

演示人員 李連吉:對的是這樣。

總臺央視記者 杜思源:所以這個就是在進行讓機器誤認它們的一個過程是吧。

演示人員 李連吉:是的。

人工智能安全技術(shù)從業(yè)人員 唐家渝:我們把這張圖片打印出來,比如說這個眼鏡的話,就是把其中的眼部和鼻子的部分給它剪出來。A如果我就拿到這部分信息以后的話,我就可以冒充B了。

人工智能安全技術(shù)從業(yè)人員 田天:其實這種對抗樣本技術(shù)實現(xiàn)的成本是非常低的,另外算法本身門檻也并沒有我們想象的那么高,所以其實一旦說黑客掌握了這種對抗樣本技術(shù)或者大規(guī)模使用的話,其實會對人臉識別各種應(yīng)用場景產(chǎn)生非常大的威脅。

技術(shù)人員告訴記者,一張換臉照片、一段深度合成的偽造視頻,也有可能讓人臉識別系統(tǒng)出現(xiàn)錯誤。

演示人員 張?zhí)燹龋?/strong>右上角的這段視頻是我們原始的一段真實的視頻,右下角是我們一位同事的真實的圖片,可以看到這兩個人五官的差別還是非常大的。我們利用AI換臉的技術(shù),將我們這位男同事的圖片換到我們原始的視頻上面。生成了這樣一段非常有反差性的一個換臉的、偽造的視頻。

總臺央視記者 杜思源:那這樣一種技術(shù)是不是會帶來一定的風(fēng)險呢?

演示人員 張?zhí)燹龋?/strong>是的,如果這種換臉的技術(shù)被不法分子利用,可能會被用于虛假宣傳、網(wǎng)絡(luò)詐騙等場景當中。

最近,在某短視頻社交平臺上,一個叫作“螞蟻呀嘿”的特效火了。許多網(wǎng)友都將自己的照片導(dǎo)入一款“變臉”軟件中,照片會被算法驅(qū)動,變成一段跟著節(jié)奏晃動的視頻。技術(shù)人員通過一段演示告訴記者,類似這樣的特效,也是存在相應(yīng)風(fēng)險的。

演示人員 張?zhí)燹龋?/strong>您現(xiàn)在看到的這段視頻,就是利用深度合成中的表情操縱的方法生成的一段偽造的視頻。就是說我們可以操縱一張圖片,讓它做出和右邊這個視頻一樣的動作來。比如說點頭、搖頭、說話。可以用于攻擊人臉識別系統(tǒng)的這種場景當中。

總臺央視記者 杜思源:我們能看一下具體的攻擊過程嗎?

演示人員 張?zhí)燹龋?/strong>我們可以生成系統(tǒng)指令的這些,張嘴、點頭、搖頭之類的指定的動作,然后最終我們就可以冒充這個人完成了人臉驗證的環(huán)節(jié)。

總臺央視記者 杜思源:也就是說我們只需要這個人的一張照片,就可以冒充他,然后攻破這個系統(tǒng)。

演示人員 張?zhí)燹龋?/strong>是的。

人工智能安全技術(shù)從業(yè)人員 唐家渝:技術(shù)的話攻擊和防御它都是一個不斷演化的過程,是需要讓這些消費者的話明確地知道這些風(fēng)險在哪里。大家有這樣的知情權(quán),另外一方面其實也要讓大家放心,比如說在安全的一些場景下去放心地使用。

人工智能安全技術(shù)從業(yè)人員 田天:預(yù)先發(fā)現(xiàn)一些可能存在一些安全隱患,進而提供一些修復(fù)和防御的方案。比如說做出類似于人臉識別防火墻。把這個防火墻再疊加到現(xiàn)在的人臉識別系統(tǒng)上,就可以先于黑客對人臉識別系統(tǒng)進行保護。

人臉識別應(yīng)用中 還會產(chǎn)生哪些安全問題

以子之矛,攻子之盾。從事人工智能安全研究的專業(yè)人員,用攻擊去暴露風(fēng)險,再演練出針對性的防御技術(shù),為人臉識別筑起安全防線。除了技術(shù)本身的風(fēng)險,人臉識別在應(yīng)用的過程中,還會產(chǎn)生哪些值得關(guān)注的安全問題呢?

清華大學(xué)人工智能國際治理研究院副院長 梁正:主要是三個方面的問題,第一是對個人隱私的這方面的擔(dān)憂,泄露的問題。第二是安全的問題,不管是在這個金融交易,還有一些像家居生活這樣一些方面。第三個其實是被濫用的方面的這個擔(dān)心。

目前,有許多用戶出于人臉信息被泄露的顧慮,對這一技術(shù)感到不信任。專家表示,相關(guān)立法已經(jīng)在重點關(guān)注人臉數(shù)據(jù)的采集和管理。

中國人民大學(xué)未來法治研究院副院長 丁曉東:正在制定的個人信息保護法草案的一個規(guī)定,主要是規(guī)制專業(yè)的這些信息收集人員他對于個人人臉信息的采集,事先就要獲取對方的同意。你的處理過程的話,你必須也是要賦予當事人如果不同意,可以隨時撤回;而且你這個數(shù)據(jù)處理的話不得超過必要的限度,要保證這個數(shù)據(jù)的安全。

清華大學(xué)人工智能國際治理研究院副院長 梁正:數(shù)據(jù)的這個存儲,其實也是一個比較重要的問題。大家可能比較擔(dān)心的,就是跟泄露相關(guān)的,是數(shù)據(jù)你到底存在了哪里,這個存放的話是不是有足夠的安全保障,一些這種數(shù)據(jù)庫,就是幾乎是放在公網(wǎng)上,屬于裸奔的這種狀態(tài),很容易就攻破。

對數(shù)據(jù)安全要保護 但不能因噎廢食

專家提出,對數(shù)據(jù)安全的保護,也不能因噎廢食。被終端采集的人臉數(shù)據(jù),應(yīng)當安全地存放、高效地運轉(zhuǎn)。

清華大學(xué)人工智能研究院院長 張鈸:我們建立數(shù)據(jù)庫的目的在哪兒?是在于共享。共享人越多它越有價值。要讓這個數(shù)據(jù)能夠大家能共享,可能大家關(guān)注的兩個問題必須解決的:一個知識產(chǎn)權(quán)的問題,一個隱私的問題。一個措施就是法律法規(guī),規(guī)定了你怎么使用它,在什么情況下可以使用它,使用的方面要不要有一些承諾。另外一個方面也可以從技術(shù)上。目前實際上在技術(shù)上也在研究各種各樣的辦法,比如說現(xiàn)在叫聯(lián)邦學(xué)習(xí)。這個新的學(xué)習(xí)方法就等于說,我使用你的數(shù)據(jù),但是我只是在你那邊使用。實際上不要把你的數(shù)據(jù)全拿過來變成我的。

在隱私保護、技術(shù)便利和公共安全這三者之間,專家認為,我們應(yīng)當找到一個平衡點。

清華大學(xué)人工智能研究院院長 張鈸:比如說我們用視頻監(jiān)控來抓逃犯,對整個公共安全,對保護大家的財產(chǎn)和生命的安全是有很大的好處的。所以這里面就有一個衡量。隱私的保護還是比較復(fù)雜的問題。不是簡單地說,有的人就因為說要對人臉信息做保護,我們就應(yīng)該禁止任何地方、任何時候使用視頻監(jiān)控。那么這個就有點極端了。那么這里面有一個公共利益與個人利益的權(quán)衡問題。

專家:防止技術(shù)被濫用 建議設(shè)置使用等級

人臉識別這項技術(shù)已經(jīng)走入了人們的日常生活中,而隱私侵犯,信息泄露等問題又讓大眾產(chǎn)生了種種顧慮?;氐轿覀?nèi)粘5纳顖鼍爸校四樧R別這項技術(shù)究竟是否被濫用了呢?

人工智能安全技術(shù)從業(yè)人員 田天:其實作為一項新興技術(shù),大家對它還是有一定興奮感的,想在各種場合都用人臉識別,比如說我看到的一些比較夸張的例子,有把人臉識別放在公共衛(wèi)生間外面去拿衛(wèi)生紙,這個時候他要做人臉識別,其實這些都是涉及到一些程度上的濫用吧。還是需要把它應(yīng)用在一些更關(guān)鍵、真正有必要的一些場景。

清華大學(xué)人工智能國際治理研究院副院長 梁正:所以我們基本的一個建議是說,我們應(yīng)該有一個,類似于一個叫作治理的光譜,你要劃出來什么場景是什么等級,就像我們說公園、商場是一個等級,火車站然后機場是一個等級,然后小區(qū),辦公樓宇是一個等級。你個人的手機,還有你的家庭的智能門鎖這是一個等級。就是這幾個等級上要求是不一樣的,它所應(yīng)該遵循的安全技術(shù)標準規(guī)范和一些這個要求,是不一樣的。

例如,在商業(yè)化的場景中,專家認為,運用人臉識別技術(shù),應(yīng)當遵守最小、必要的原則,保障用戶的知情權(quán),并為用戶提供多種選擇。

中國人民大學(xué)未來法治研究院副院長 丁曉東:在這種商業(yè)化的這種場景的運用當中,那么我想首先是要給這個用戶提供一個選擇權(quán)。應(yīng)當提供一種沒有人臉識別的一種選項,讓這些不愿意使用這個人臉技術(shù)的個體能夠通過其他的方式,能夠獲得一個身份的驗證。

在涉及人臉識別這類前沿技術(shù)的治理手段的選擇上,專家普遍認為,技術(shù)和制度兩個層面要同步推進。

中國人民大學(xué)未來法治研究院副院長 丁曉東:一個技術(shù)出來,它永遠都會有一個可以破解它的技術(shù),去攻破這個安全的技術(shù)它也會在升級。不能說寄希望于我只要把這個技術(shù)做好了,就沒有什么問題了,我們說法律和倫理的作用,它其實應(yīng)當是貫穿在這個科技和這個企業(yè)里面。

清華大學(xué)人工智能研究院院長 張鈸:我認為從兩方面著手,一方面是從法律法規(guī),還有道德倫理這些方面去限制或者是制約人類對人工智能技術(shù)的誤用或者濫用。第二個方面我們還是要從技術(shù)上去發(fā)展新的技術(shù),來克服這些人工智能算法本身的不安全性和脆弱性,我認為這兩個都要同時進行,而且是相輔相成。

如何保障人臉識別的技術(shù)安全呢?專家指出,目前,有關(guān)部門推出相關(guān)技術(shù)標準、增進行業(yè)自律至關(guān)重要。

中國人民大學(xué)未來法治研究院副院長 丁曉東:一個技術(shù)標準,一個行業(yè)標準,可能就會使得對個人信息的這個收集端和處理端,它的入口上就會產(chǎn)生一個,有點像守門員的一個角色,像一個產(chǎn)品質(zhì)量的一個認證一樣,達到一個氣體排放,你才能進入這個市場,那么人臉識別你必須有一個安全保障能力,你必須有這個信息安全長期的這個,一個良好的一個內(nèi)部的管理流程,這才能進入。

國家工業(yè)信息安全發(fā)展研究中心人工智能所副所長 李向前:對人臉識別的攻擊層面,我們現(xiàn)在的這種技術(shù)產(chǎn)品,它的防攻擊的能力,還是存在的一定薄弱項,常見的這種照片的攻擊,對抗樣本的攻擊,對市面上常見的這種產(chǎn)品我們都做了相關(guān)的測試。我們也發(fā)現(xiàn)以前的這些標準、規(guī)范,一定程度上是滯后于我們現(xiàn)在的這個技術(shù)的進步,我們有一些條件,有一些指標,可能現(xiàn)在的這個終端的產(chǎn)品都已經(jīng)完全能夠達到,但是它的潛在的其他的問題風(fēng)險,反而在我們現(xiàn)有的標準里面,可能是體現(xiàn)得不夠。

【責(zé)任編輯:admin】

Copyright ? 2001-2024 湖北荊楚網(wǎng)絡(luò)科技股份有限公司 All Rights Reserved

營業(yè)執(zhí)照增值電信業(yè)務(wù)許可證互聯(lián)網(wǎng)出版機構(gòu)網(wǎng)絡(luò)視聽節(jié)目許可證廣播電視節(jié)目許可證

關(guān)于我們 - 版權(quán)聲明 - 合作咨詢

版權(quán)為 荊楚網(wǎng) www.cnhubei.com 所有 未經(jīng)同意不得復(fù)制或鏡像