特性科学

人工智能会议以“民主威胁”会议探讨技术的阴暗面

从左到右:乔纳森·Stray,塞斯卡·安东内利和丽莎·吉布斯周五在东北大学听麦格·赫克曼教授的讲话。马特·卡罗尔提供。

周五,屡获殊荣的记者、学生、教授和其他专家聚集在东北大学的雷神圆形剧场,探讨人工智能的黑暗面:深度造假。这次会议以“人工智能、媒体和对民主的威胁”为主题,讨论了人工智能在媒体中的崛起及其在民主中的作用。

东北大学教授Matt Carroll、David Lazer、Woodrow Hartzog和Meg Heckman与记者兼东北大学教师Aleszu Bajak一起组织了这次会议。

卡罗尔说,他有动力帮助策划这次会议,因为他看到了人工智能可能会给新闻业带来革命。

卡罗尔说:“我们部门的很多人都对这个(人工智能)感兴趣。“这显然正在成为更广泛的新闻界感兴趣的东西。”

主讲人是马里兰大学弗朗西斯·金·凯瑞法学院的法学教授丹妮尔·西特隆、莫顿和索菲亚·马赫特。香橼解决了“深度造假”的兴起,这是一种复杂的虚假音频和视频,可以由有技术的人轻易制作出来。

香橼警告观众,这项技术的民主化可能会对政治进程产生毁灭性的影响。她讨论了一段伪造视频的可能性,该视频会在选举前一天晚上出现,使一名政治候选人有罪或难堪。

她在一次采访中表示:“对民主的主要伤害是,它在我们周围的世界以及机构中制造了不信任,记者和媒体是我们考虑民主时的核心(机构)。”

Citron担心,如果个人不能辨别真假,有权势的人物就能利用这种模糊性,然后声称对自己的任何破坏性描述都是假的。她称之为“骗子红利”。

“这就是声称一切都是谎言,即使你很清楚这是真的,”西特隆说。“(深度造假)更容易让人说,‘哦,(那)是我的假视频,那不是我。’”

香橼说,她还担心隐私受到侵犯。她说,市场压力可能会迫使人们透露私人信息,以证明他们的破坏性视频是假的。

为了打击深度造假,香橼解释说,人们需要关注瓶颈,那些有能力控制深度造假传播的平台,以及《通信规范法》第230条的目标。本节规定,对发布第三方用户信息的“交互式计算机服务”免除责任。

Citron对普通人有几点建议。

“有些怀疑,”Citron说。“如果有些事情太耸人听闻了,我们应该三思。如果你怀疑你所看到的是伪造的,是深度伪造的,那么就向平台报告……进行反驳,并提出质疑。”

在香橼的主题演讲之后,有一个关于人工智能对新闻业影响的小组讨论。

该小组概述了人工智能给新闻业带来的一些潜在进步,比如更快地对紧急事件做出新闻反应,社会倾听——利用公共对话来了解人们对问题的感受——以及搜索大型数据集以寻找模式的能力。

东北大学新闻学教授约翰·维贝(John Wihbey)介绍香橼走上讲台,他说,他觉得记者的作用在未来几十年将变得越来越重要。

Wihbey在一次采访中说:“随着越来越多的开放数据在网络上提供,这个世界上最重要的数据将很难获得。”这可能意味着调查记者帮助挖掘的问责数据,但也可能是其他形式的独特数据和数据集。在这个生态系统中,记者完全有资格成为锁匠。”

在新闻专题讨论之后,第三个专题讨论强调了算法在人们日常生活中越来越重要的作用。他们讨论了社交媒体网站通过使用算法操纵搜索结果的方式,有时是为了服务于公众利益。

最后一个小组讨论的重点是监管媒体中的人工智能的艰巨任务。小组成员讨论了潜在的法律和政策解决方案,以及监管对自由和隐私的潜在成本。

维贝说:“底线是,权力中隐含着某种被统治者的同意。”“如果越来越多涉及权力的决策是由他们所谓的‘黑箱技术’来执行的——神经网络、深度学习网络可以瞬间做出非常重要和复杂的决定——随着时间的推移,这可能会带来麻烦。”

评论截止。