薤白

2020年5月15日 星期五

2020-05-16 啾啾鞋:這是我看過最廢的人工智慧了...

 影片:啾啾鞋 這是我看過最廢的人工智慧了...
 

研究發現,如果加入一個完全沒有功能的對手,可能可以對已經訓練純熟的人工智慧起到意料之外的干擾作用!

研究目的是:找出機器學習的缺點(演算法 人工智能的缺點)

甚麼是對抗例 ? 

若能在資料上加入一些擾動雜訊造成AI的識別力下降,這個被加入雜訊的資料就是對抗例。

最早發現對抗例的是Szegedy et al(2013),他們在進行圖形辨識時發現非常像的圖片會造成模型誤判成不同類別,其中兩張圖片可能只是幾個像素的變化就會輸出完全不同的結果。

這個漏洞可能會造成AI的不安全性,在生活中到處存在AI影子下,如果有非法分子以這個漏洞來進行AI攻擊,可能會產生嚴重的後果,因此在近幾年許多學者開始投入研究可能的攻擊手法和防禦手法。

合理的要求是訓練 不合理的要求是磨練



對抗例  adersarial examples
對抗樣本 adersarial examples
生成式對抗 演算法
Gan
怪人小紅人
白紙運動

沒有留言:

張貼留言