[分享] AI变脸技术滥用 假新闻流窜难防
作者: 时间:2020-05-25

[分享] AI变脸技术滥用 假新闻流窜难防
DEEP FAKE「变脸」技术出现,让眼见不再为凭,这样的技术,就怕被有心人拿来当武器,可怕的是,不只是名人受害,每一个人都有机会被这样的技术栽赃,该如何自保?律师提醒、如果肖像被盗用,做成不堪入目的影片或图片,可先提起民事假处份,禁止再被引用,再向对方提告妨害名誉等,不过技术人员也说、随着科技越来越进步,要分辨真假恐怕会越来越有难度。

将韩国瑜的照片汇入电脑程式,系统分析照片后,韩国瑜的喜怒哀乐,表情细小到嘴角的变化,电脑都可以轻易调整做出,这就是DEEP FAKE像是变脸的技术,接着就能将头像合成到相关影片上。

动画软体公司产品经理 余家安:「需要有一个很好的照片,因为越好的照片,可以做出越真越逼真的角色,如果表演者就已经跟这个人的神情姿态,很相似的时候,那就可以表演的更真。」

DEEPFAKE深假技术,原本是电影动画公司,为了节省成本,而开发出来的技术,现在就怕成了有心人士的武器,尤其选举将近,这类的造假恐影响选情,中正大学传播学系教授 胡元辉:「人工智慧的运用,就可以结合出让人信以为真的影片,一定会在选举的时候被运用,所以现在大家都在提防这样的事情。」

但未来恐怕不只名人受害,每人都可能成为被汙陷的对象,如果肖像被盗用做成不雅图片影片,我们该如何自保?律师 刘韦廷:「是可以提告的假处份去禁止这些A片继续散布,当然也可以透过刑事扣押的程序,让这些A片没办法继续散布,再者可以提起民事的人格权损害赔偿,以及禁止他再散布的诉讼,当然刑事也可以提告妨碍名誉。」

要怎幺分辨真假,动画公司也坦言,随着科技进步,技术只会越来越精细,相关单位应正视问题,开发可快速辨识的鉴识技术。