姬德强:深度造假:人工智能时代的视觉政治

选择字号:   本文共阅读 431 次 更新时间:2021-09-09 15:19:22

进入专题: 深度造假   后真相   视觉政治   人工智能   平台化  

姬德强  
因此,深度造假也被认为有可能成为未来虚假信息战的武器,被各方政治力量所使用。简言之,如果作为独立监督力量的传统媒体已经深陷假新闻和党派政治的漩涡,而作为替代性的网络平台也被无法追踪来源的虚假信息所充斥,甚至通过视觉造假在最基础的认知层面传递误导性信息和煽动性言论,那么,西方民主的根基——理性的公众就面临崩塌的危险。

   其次,从地缘政治的角度而言,深度造假正在威胁国家安全,核心是对域外信息控制的担心。各国的国防系统已经成为研究深度造假的前沿力量,以提防深度造假的“武器化”(weaponization)。正如美国国防部联合人工智能中心主任Jack Shanahan中将所说:“深度造假是一个国家安全问题,国防部需要在能够对付它的技术上投入巨资。”(斯特劳特,2019)美国2020年的《国防授权法案》(National Defense Authorization Act)中就提出要资助检测深度造假的技术创新,因为深度造假已经威胁到美国的国家安全。法案要求开发检测和利用深度造假的技术,以应对机器主导的媒体和潜在的外国力量利用这一技术作为武器,深度造假美国政客,从而散布虚假信息影响美国大选。与此同时,以民主党参议员詹妮弗·韦克斯顿(Jennifer Wexton)为代表的政治势力也向以脸书为代表的社交媒体施压,希望其有效甄别和控制蓄意造假的视频(Kimery,2019)。由此,深度造假与国家机器的绑定更加清晰。无论是虚假视频还是传输渠道,都成为国家安全的重要目标。由于政治体制和政治文化的不同,深度造假对国家安全的威胁在中国被理解为更多维和更复杂的现象。龙坤、马钺和朱启超(2019)将深度造假对国家安全的挑战归纳为四个维度:政治安全(抹黑政治人物、伪造政治制度和破坏国家间关系)、经济安全(破坏企业形象和干扰金融稳定)、社会安全(社会信任危机、法律举证困难和被恐怖主义利用)和国民安全(生命、财产和心理)。与美国案例所展现出的要应对的清晰的造假目标相比,中国学者的这一国家安全观包含了多元主体,使得深度造假进入一个无所不包的国家权力体系内。至少就国内而言,2020年开始设施的《网络音视频信息服务管理规定》针对人工智能生成内容进行了全面而明确的管控,以确保包含深度造假在内的此类内容安全可控。

   再次,视觉控制除了内容造假,更涉及虚假内容的网络化传播。于是,这一项政治议程指向了社交媒体平台。深度造假的影响往往取决于两个要素:第一,虚假视频的制作;第二,虚假视频的散播。社交媒体的渠道霸权和平台中立性主张往往成为深度造假产生强大传播效果和广泛政治影响的技术前提。2019年,一则以扎克伯格为目标的造假视频在Instagram上广泛流传。视频中的“扎克伯格”称:“试想一下:一个人完全控制着数十亿人被盗的数据,掌握着他们所有的秘密、生活和未来。这都要归咎于Spectre漏洞。它让我们明白,谁控制了数据,谁就控制了未来。”这显然不是扎克伯格本人所说,反而是借扎克伯格的嘴嘲讽Facebook的信息泄露丑闻,并批评社交媒体平台拥有搜集和控制用户数据的权力问题。这一事件的起因,是Facebook拒绝删除假新闻,而是坚持呈现包含核查人员在内的事实全貌,以及作为平台或管道的中立性原则。中立是否无涉政治?一方面,从平台的外部性而言,“网络中立性”(net neutrality)原则在美国被提出和被废止的短暂历史已经说明不同的政治立场很难在这一点上达成一致,中立往往成为一种表达立场的政治修辞;另一方面,正如Tarleton Gillespie在其《互联网的守护者》一书中所揭示的,尽管平台公司的领导者往往把自己呈现为中立的中介的角色,但却无法掩盖平台组织和选择内容的事实。他将这一点描绘为平台的“不可调和的矛盾”(irreconcilable contradiction)(Plantin,2019)。在这个意义上,不管是从内容还是传播上,深度造假都可以被纳入一个更加宏观的平台控制体系之内。平台孵化了深度造假的应用,也利用深度造假生产着分裂的网上公众,使后者更依赖平台进行信息发布、意见表达和运动组织。

   需要注意的是,平台控制也有着丰富的地缘差异,从而导致了视觉控制的宽度和力度。如果深度造假可以依托源自北美的社交媒体体系(如脸书和推特)达到特定的政治宣传和政治动员的目的,那么在中国,具体问题就不是情绪表达乃至政治攻讦。中国虽然同样具备深度造假的技术条件和平台化水平,但虚假视频一般不会涉及政治领域,而是存在于相对去政治化的社交空间中。这显然是中国特定的政治与媒体关系以及对于互联网的治理方式所决定的,但这并不意味着深度造假视频不会对中国的政治议题和政治环境产生间接影响,相反,它会继续以收割社交媒体流量的方式将传统媒体为代表的权威信源边缘化,从而在客观上导致了政治讨论的去中心化。这一点与Facebook以促进用户之间连接为主的算法倾向是一致的,后果之一便是传统媒体或新闻机构在用户获取新闻上的重要性下降,以及虚假信息的生产和散播。在很大程度上,这也是深度造假之所以能够快速蔓延的技术和用户土壤。

   因此,在讨论深度造假所施加的视觉控制时,需要在方法论上明确“语境化”(contextualization)的重要性。这恰恰也是传播政治经济学的核心方法论主张之一。除此之外,平台化时代深度造假的经济逻辑也是促使平台控制得以加强的基础条件,由此,可以进一步超越真假二元论的理性主义困境。

  

   四、平台动能:深度造假的经济价值

  

   后真相体制是一个有关真相的游戏(Jayson Harsin,2015)。游戏的基础有二,一个是高度分裂的社会,另一个是注意力经济,即网络参与的数据化和商品化。二者对互联网平台而言,缺一不可。深度造假的兴起恰恰符合这一政治经济逻辑。

   如上文所述,依托应用平台和社交平台的网络化效应,深度造假正在转向“廉价造假”(cheap fake或shallow fake),其潜在的经济价值正在被各个互联网平台所发掘。而对深度造假乃至后真相或假新闻的分析往往因为理性主义思维和精英主义意识,忽略乃至忽视具体的经济过程和对市场的细致分析,导致了对社交媒体时代新闻或信息生产、流通和消费的具体经济过程缺乏分析[3]。在理性法则内,真相是任何讨论的基础。然而,在历史上,这一形而上的道德规范、专业主义意识形态或称“媒体精英建构的乌托邦”却一直与假新闻现象相伴相随(吴飞、龙强,2017)。除了哲学上的本体论追溯、道德上的反思以及对新闻专业主义危机的担忧,我们还能给造假一个怎样的注解才能使真相不至于迷失在乐观的技术赋权和悲观的权威消弭之间,从而失去对于复杂而动态的平台化和网络化的内容生产和消费过程的解释力呢?

   传播政治经济学从对历史的分析出发,认为特定的商业模式——以及内嵌的技术权力——对新闻的生产、流通和消费具有重要影响,进而对媒介资本及其背后的商业或金融资本的积累提供支持。正如Martin Hirst在《假新闻的政治经济学》一文中所指出的,“就假新闻分析而言,政治经济学路径可以看作是对大多数自由主义规范下媒介研究的补充和对应”(Hirst,2017)。这既是黄色新闻时代的历史遗产,也是数字新闻时代的现实。对不断平台化的互联网环境及其动力机制而言,这一路径具有重要的现实解释力。

   对承载着后真相时代虚假信息及其散布的社交媒体平台而言,致力于吸引注意力,增加用户粘度,成为互联网的入口,从而带来更多、更稳定流量的商业考虑往往优先于事实核验和理性辩论。在平台或者生态系统的中立性修辞表象下,对这些平台企业而言,真与假的辩证其实并不重要,对其公共性的诉求也超出了其组织承载力。与此同时,这一去政治化的实用主义商业动机也内嵌在各种算法逻辑中,从而通过作用于社交媒体时代大众的信息消费和情感表达心理,促成了特定信息的快速流通和大量消费,最终也不可避免地产生了更加广泛的政治与社会后果。这也是以荷兰学者Jose van Dijck为代表的平台社会研究者们所关心的核心问题,即如何让一个私有并且商业化运行的互联网平台系统在创新的规制体系下发挥公共服务的功能,而不是任由商业价值侵蚀公共价值(van Dijck,Poell&de Waal,2018)。在这里,资本借由技术变成一种直接的建构性力量,造就了一个“平台资本主义”(platform capitalism)时代的到来。在这个意义上,各类应用作为平台经济的代表,本身就是资本积累的重要工具。

深度造假共享了平台社会的一系列基本原则,并逐渐演化为平台经济的一种内容商品,成为互联网企业突破增长瓶颈的新选择。按照Jose van Dijck等人的分析,平台设施在社会中的扩张依赖三个基本过程(Plantin,2019),也就是互联网平台企业影响社会运行的三个过程:第一,数据化(datafication),即尽可能多地、系统性地获取用户信息,对深度造假而言,这也是深度学习、机器训练的基础。如果仅仅依托平台企业自身所拥有的视频资料库,则既要解决数量瓶颈,也要面临版权纠纷。社交媒体平台提供了获得数量庞大的用户视频资源的可能。第二,商品化(commodification),即将线上行为转化为可以交易的产品。就深度造假的商品化或者说其存在的经济合理性而言,我们可以借用Martin Hirst对于Christian Fuchs等学者对数字时代“受众商品论”的两层次划分:首先,聚集眼球或注意力。深度造假本身就具有挑战既有认知框架的反常性特征,能够有效促进从点击到转发的网络行为。Martin Hirst认为,假新闻通过作用于人们的心理从而塑造了奇观和轰动(Hirst,2017)。在这方面,社交媒体平台通过以下技术特征扮演了独特的角色,包括:快速而不是准确,基于聚合的多次发送,以及追求点击流量的货币化(广告收入)。这些特征都能够在深度造假这一技术运动中找到。其次,社交平台以服务用户为名,使用用户自制内容而不需要付费。这可以被认为是平台化时代的受众商品论。免费使用用户自制内容可以追溯到传统新闻媒体在面临财务危机时而做出的妥协式选择。正如支庭荣和罗敏(2018)所分析的,从新闻生产过程而言,“用户向新媒体迁移带来的最为直观的结果就是传统新闻机构的利润大幅下降,迫于财务的压力,传统媒体开始径直地从社交媒体上获取话题新闻,其代价是牺牲了新闻准确性和真实性……而迎合读者的偏见正在成为一个新的利基市场,传统媒体的专业和深度正在遭受侵蚀”。而对社交媒体平台而言,免费获取和利用用户自制内容,尤其是依托深度造假客户端而上传的用户视频素材和制作的合成视频,并不涉及平台专业权威性的丧失等问题,因而更没有专业伦理的界限。除此之外,就社交媒体平台而言,其内嵌的“技术法则”(technical code)虽然出自技术专家之手,包含了技术、产品和文化的逻辑,但大多服务于其母公司(多为私营)的商业模式(Feenberg,2013)。而截至目前,社交媒体平台的主要商业或盈利模式,在喧嚣的技术神话和商业概念泡沫的掩盖下,矗立得像传统媒体一样古老。Jakob Rigi和Robert Prey(2015)将之总结为两个方面,即广告空间的租用和虚拟资本所期待的意外之财。通俗来说,就是广告收入和在股票市场的表现。以2019年9月在中国社交媒体市场瞬间崛起的ZAO为例,在瞬间冲入苹果应用商店免费娱乐榜排名前三,免费总榜单、免费应用、免费娱乐榜单中第一的同时,也伴随着母公司股价的飞涨。虽然围绕这一人工智能换脸软件的讨论大多关注其对用户隐私的侵犯,但从其公司运营和实际上隶属于母公司陌陌的关系而言,ZAO作为一款深度造假软件,(点击此处阅读下一页)

    进入专题: 深度造假   后真相   视觉政治   人工智能   平台化  

本文责编:hanzhirui
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 新闻传播学 > 传播学实务
本文链接:http://www.aisixiang.com/data/128460.html
文章来源:《新闻大学》2020年第7期

0 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统