濫用Deepfake分這幾類 學者主張操弄民主、影響公安、情色霸凌應入罪

出版時間 2021/10/29
Deepfake換臉色情片事件引起熱議,蔡英文表示將研擬修法來防範,學者對此整理出濫用案型並提出修法建議。翻攝自蔡英文臉書資料照片
Deepfake換臉色情片事件引起熱議,蔡英文表示將研擬修法來防範,學者對此整理出濫用案型並提出修法建議。翻攝自蔡英文臉書資料照片

潘怡宏/德國杜賓根大學法學博士、中央警察大學犯罪防治學系助理教授

日前,網紅小玉以Deepfake(深偽)技術,合成知名藝人、政治人物的臉,移花接木成A片販售,獲利近千萬,輿論譁然,不僅引發眾怒,甚至驚動蔡英文總統宣示政府將重新盤點法規、研擬修法;行政院長蘇貞昌與法務部長蔡清祥更表示,法務部將於一個月內提出《刑法》修正案。問題是,Deepfake可以運用的層面很廣,一旦遭到濫用,其可能危害的法益非常多元,絕非傳統《刑法》的犯罪規定可以完全涵蓋。

即使部分的濫用Deepfake案型,可以涵攝於現行法某些犯罪構成要件,但其法律效果是否可以反應Deepfake所造成的危害程度?如果不行,應該考慮加重之。至於現行《刑法》無法涵攝的Deepfake案型,如果社會共識認為其對於法益具有危害性,且為社會大眾所不能容忍,非予刑事裁制不足以嚇阻、預防是類犯行,而有將其納入刑罰規範之必要,基於罪刑法定原則,必須經由修法或立法的方式將其「入罪化」,使之成為可罰的犯罪行為。

茲分就現行《刑法》可以與無法規範的濫用Deepfake案型,分別提出修法建議如下:

【現行《刑法》可以規範的濫用Deepfake案型】

首先,因濫用Deepfake的目的在於「以假亂真」,使人發生認知上的錯誤,誤信Deepfake合成的圖像、影音為真實,本質就是「欺騙」,那麼凡以欺騙作為犯罪手段的犯罪規定,都可能適用於濫用Deepfake的案型。特別是以「詐術」為手段之犯罪,例如詐欺取財(刑§339)、施詐使人處分財產(刑§355)、詐術妨害信用(刑§313)、施詐使人出境(刑§297)、詐術締婚(刑§238)、施詐使人為性行為(刑§231、233)、詐欺性交罪(刑§239)、施詐妨害集會(刑§152)、施詐妨害投票(刑§146)、詐術妨害考試(刑§137)等。

其次,由於「有圖有真相」、「有影音有故事」不僅是都市傳說,在刑事訴訟上,數位證據或影音證據亦可以作為證據使用,因此,如果以Deepfake技術為基底,偽、變造可以作為證據使用之圖像或影音證據,亦可能該當偽、變造證據為基礎的犯罪(刑§165、169Ⅱ、171Ⅱ)。

再者,除了「詐術」、「偽、變造」系列犯罪外,本質上同屬「欺騙」性的犯罪,還有以「傳達不實資訊」為手段的犯罪。例如,行為人意圖影響糧食、農產品或其他民生必需之飲食物品,或種苗、肥料、原料或其他農業、工業必需之物品或其他經行政院公告之生活必需物品之交易價格,而濫用Deepfake技術,偽、變造工商大老或對於農、工、商業產品市場價格具有重要影響力之人士之圖像、影音,用以散布足以影響商品價格之不實資訊,即可能該當「影響農、工、商業或生活必需物品價格罪」(刑§251Ⅲ)。

此外,如果行為人意圖散布於眾,而以濫用Deepfake,偽、變造足以影響一般社會大眾對於特定他人之人格評價之圖像、影音,用以作為指摘或傳述足以毀損他人名譽之事的手段,亦可能構成誹謗罪(刑§310)。

【關於加重刑責】

當然,Deepfake濫用最大宗,無非利用Deepfake技術將被害人臉部或聲音合成於色情影片,據知名媒體遠見報導指出,國外科技研究單位Sensity AI估計,所有Deepfake 的影片中有90~95%是未經同意的色情內容,其中約90%的影片主角為女性。如果行為人濫用Deepfake合成之性圖像與性影音,該當《刑法》上可罰的「猥褻文物」,則其意圖散布、播送、販賣而製造、持有之行為,即可能構成《刑法》第235條之製造或傳布猥褻文物罪。

至於濫用Deepfake之圖像或影片逼死人、迫人自殺或自殘,入侵他人電腦系統或者作為其他犯罪之手段,想像上亦有可能,只要在具體個案中,其行為可以該當各別犯罪構成要件,亦能成罪。

綜上,濫用Deepfake之行為在《刑法》上並非全然無罰,只要其該當各別犯罪構成要件,仍得處罰之。至於是否要修法予以加重處罰,係屬立法者自由形成之空間。只是慮及社會大眾普遍欠缺辨識Deepfake之圖像或影片真偽之能力,被害人亦無法於第一時間有效澄清,即使能澄清,亦難以期待網際網路平臺提供者、網際網路應用服務提供者、電信事業會積極地配合移除相關Deepfake之圖像或影片,以避免損害持續擴大。職是,濫用Deepfake之圖像或影片作為犯罪之手段,勢必擴大或加深法益的危害,為防杜行為人濫用Deepfake作為犯罪的方法,修法加重其刑責,似有必要。

【建議入罪的案型:破壞社會互信、公信力,妨害交易秩序、社會安全】

互信,是個人自主與相互尊重的表現,是人與人之間可以和平共存,營社會共同生活,自由發展個人人格的基礎。為維護人際互信,《刑法》特別禁止施用詐術、傳遞不實訊息,偽造、變造的行為。特別是,為保障公共信用與交易秩序,刑法定有偽造貨幣、有價證券、度量衡以及文書印文等罪章。只是這些罪章規範之偽、變造行為的客體,不包括足以破壞社會互信、影響公共信用與交易秩序,但不屬於準文書(刑§220)之列的個人圖像、影音或電磁紀錄。問題是,不容否認地,有些人的圖像與影音,雖不具有文書、準文書之性質,但於吾人的社會生活,普遍認其具有一定的公信力、對於公共信用交易秩序甚至社會安全具有一定的影響力,例如中央及地方政府官員、具有公信力之民間團體或企業負責人,或者具有政經、社會影響力與公信力之社會人士或公眾人物,濫用Deepfake偽、變造這些人的圖像、影音,事實上足以妨害公共信用或交易秩序,卻因無法涵攝於現行《刑法》之偽、變造文書罪規定,而可能無法可罰。

夷考德文文獻,德國知名的企業諮詢顧問公司Accenture的代表,鑑於濫用Deepfake發展趨勢的危險性曾提出警告:「深偽技術與仿真的聲音模擬裝置,讓我們對於真實的認知理解以及事物的可信性產生質疑。而對於消費者而言,事物的真實、可靠性,將比以往更加重要(Deepfakes und täuschend echte Stimmsimulatoren stellen unser Verständnis von Wahrheit und Authentizität in Frage. Dass etwas authentisch ist, wird für Verbraucherwichtiger sein denn je.)。」德國IT安全顧問公司Avast的人工智能主管Rajarshi Gupta在接受媒體Business Insider採訪時亦表示:「深偽可以操控股市以及欺騙消費者(Deepfakes können Aktienkurse manipulieren und Verbraucher täuschen)。」

再者,德文文獻亦指出,對於欠缺辨識Deepfake專業能力的一般人而言,除了不將自己暴露於外界外,幾乎沒有任何方法可以保護自己免受深度偽造的侵害(Es gibt kaum Möglichkeiten, sich vor Deepfakes zu schützen)。職是,德國知名的網路安全諮詢顧問專家,Schellong與Schmidbauer預示,如果不正視Deepfake的濫用問題,加強立法管制,那麼在未來「誰仍然相信他所看到與聽到的一切,誰就輸了(Wer noch alles glaubt was er sieht und hört, verliert)」。

因此,為防制濫用Deepfake,妨害社會互信、公共信用與交易秩序,筆者建議增訂在《刑法》第2編第15章之後,增訂第15章之1「偽造科技圖像、影音、電磁紀錄章」,將意圖使公眾陷於錯誤,利用深偽(Deepfake)技術或其他科技方法,偽造、變造他人之圖像、影像、語音或電磁紀錄,足以生損害於公眾或他人之行為予以入罪,以維護人與人之間的互信機制。

【建議入罪的案型:操弄輿論、危害民主,影響公共安全、國家安全】

試想,如果一國元首在網路或電子媒體,公開宣布放棄武力自保,向敵國或敵對勢力投降或者向外國宣戰,那會造成如何的結果?無庸置疑,其結果必然會引起社會動盪,危及國家安全。上開的想像,並非不可能。2018年YouTube影音平台瘋傳美國前總統歐巴馬譏諷:「川普總統完全是個笨蛋!」的影片,即是Deepfake代表作。日前報載有人濫用Deepfake偽造蔡英文總統的影音在網路上流傳,更加證明現今的Deepfake技術,已經可以完美地偽造元首或其他對於國家安全具有影響力之人,發表有害國家安全的言論、演說或談話的圖像、影音,由於擬真圖像與影音的傳播力,遠勝於傳統的假訊息散播方式,不盡速立法規範,後果不堪設想。

選舉是民主的基石,問題是,每逢選舉,假消息或假新聞就滿天飛,用意在於影響選舉之結果,而Deepfake的濫用必然會加劇假消息、假新聞的破壞力。試想如有心人濫用Deepfake偽造候選人或其他可能對於選舉結果造成影響之人的圖像、影音,散播不實之資訊,因為一般選民根本難辨Deepfake合成圖像、影音的真假,即便立時獲得澄清,仍會有「信者恒信,不信者恒不信」的現象。換言之,只要濫用Deepfake製造假消息,就會有一定的效果。

是以,德國巴伐利亞邦法務部長(Bayerns Justizminister)Georg Eisenreich振聾發聵地疾呼:「深偽技術,也許有用。但它也可以用以操弄輿論危害民主(Deepfakes können nützlich sein. Sie können aber auch die öffentliche Meinung manipulieren und die Demokratie gefährden)。」也正因為「偽造的視頻可能在個別情況下對於選舉造成影響而且會破壞民主制度的信任(Gefälschte Videos können im Einzelfall Einfluss auf Wahlen haben und das Vertrauen in demokratische Institutionen untergraben)。」德國巴伐利亞邦法務部長為此特別提出《德國刑法》第141條修正草案,規定「利用數位科技造假,而危害公共利益者(Gefährdung öffentlicher Interessen durch digitale Fälschung)者,處以3個月以上5年以下有期徒。」他山之石可以攻錯,建請立法者參考上開《德國刑法》修正草案,將濫用數位科技造假之行為予以入罪化。

【建議入罪的案型:色情報復、濫用Deepfake或Deepnude的情色霸凌】

「色情報復(revenge porn)」,按照一般的理解,係指配偶或伴侶離異或分手後,一方意圖使他方難堪、被羞辱或遭受不利的對待,違反他方之意願,故意散布、播送、張貼或以其他任何可能方式讓第三人觀覽他方之裸露性器官、自慰或與他人為性交行為等性私密之圖像、影音或電磁紀錄。Deepfake色情,係指未經他人同意,濫用Deepfake技術偽造他人裸露性器官、自慰或與他人為性交行為等性私密之圖像、影音或電磁紀錄。新興的Deepnude則是運用類似Deepfake技術,在未經他人同意的情況下,擅將他人之照片,透過AI技術製作出擬真的他人裸照。雖然Deepfake與Deepnude未必均係出於色情報復之目的,不過三者共同的特色,都是利用網際網路之即時、迅速、大量傳播的特性,所以易使當事人的隱私、人格權以及身心健康遭受巨大傷害,都屬網路上的情色霸凌。

問題是,上開色情報復與濫用Deepfake、Deepnude的情色霸凌行為,未必然構成誹謗罪(刑§310)或散布猥褻文物(刑§235)又無法為《刑法》第28章妨害秘密罪所規範。因此,我們建議立法者參《德國刑法》第201a條規定,盡速修法將色情報復與濫用Deepfake、Deepnude的情色霸凌行為入罪化,保護被害人之隱私以及人格權。

縱上,對於濫用Deepfake的案型可以為現行《刑法》涵攝者,我們期待立法者能適切反應民意,斟酌加重其刑。至於現行《刑法》可能無法涵蓋的Deepfake濫用案型,特別是有害國家安全、民主制度、公共信用,以及從事色情報復或情色霸凌的行為,應盡速入罪化。至少將「利用深偽(Deepfake)技術或其他科技方法,偽造、變造他人之圖像、影像、語音或電磁紀錄,足以損害公眾或他人」之行為,列為與偽造文書罪同等之犯罪,還予民眾安全、乾淨的網絡世界。


青少年詐欺案件激增 該如何防詐及懲詐?
青少年詐欺案件激增 該如何防詐及懲詐?
出版時間: 2022/08/31 16:34
美軍穿越台海鞏固印太戰略 分析:要台灣走親美路線
美軍穿越台海鞏固印太戰略 分析:要台灣走親美路線
出版時間: 2022/08/30 17:06