Google 出手改进广告系统,它辩解说坏视频的数量实在太多

  1. 云栖社区>
  2. 博客>
  3. 正文

Google 出手改进广告系统,它辩解说坏视频的数量实在太多

boxti 2017-07-05 10:24:00 浏览806
展开阅读全文

本文只能在《好奇心日报(www.qdaily.com)》发布,即使我们允许了也不许转载*

加州山景城电-多年来,Google 训练的计算机系统能从 YouTube 上清除有版权的内容和色情内容。不过,当工程师们看到可口可乐、宝洁和沃尔玛的广告出现在种族主义、反犹或恐怖主义视频的旁边,他们才意识到系统模式的盲点:计算机不能理解语境。

现在,要想平息广告大客户的怒气,关键在于教会计算机理解人能立刻感知的内容,因为客户们的广告与极端主义团体的视频、侮辱性信息出现在了一块儿。

Google 的工程师、产品经理、政策专家都在试图让计算机理解,视频里哪些微妙内容会引人反感。比如,广告商可能可以忍受嘻哈视频中有种族称谓,却会被种族主义光头党视频里的这些称呼吓到。

知名企业的广告偶尔会出现在让人反感的视频旁边,对 YouTube 来说这一直是个麻烦,但在近几周变成了急需解决的问题。因为伦敦《泰晤士报》等媒体报道说,有些品牌由于自动广告的缘故不经意间支持了极端主义团体,因为 YouTube 会与视频内容创作者共享企业广告收入的一部分。

YouTube 大规模、自动化系统中的小差错演变成了一场公关噩梦。AT&T、强生(Johnson &Johnson)等公司表示,他们会撤销在 YouTube、Google 上的展示型广告,直到他们确保这类问题不再发生。

消费者每天在 YouTube 观看 10 亿多个小时视频,使之成为互联网最大的视频节目平台。当广告收入从电视流向互联网,YouTube 也成了最显而易见的受益者。不过,近期这些问题导致 Google 遭到了指责,人们认为它没有充分考虑到广告客户的利益。市值几十亿的 YouTube,大部分收入依然来自广告,所以这是重大问题。

“我们非常重视,”Google 的首席商务官 Philipp Schindler 上周在采访中说,“正在紧急处理。”

过去两周,Google 更改了那些类型视频可匹配广告的设置,将广告与含仇恨言论、歧视内容的视频隔离开。

此外,Google 还在简化流程,让广告商能在 YouTube 和 Google 展示广告的设置中排除特定站点、频道或视频。

这让品牌能仔细设置想回避的内容类型,比如“含有性暗示”或“耸动/怪异”的视频。

Google 还设定了更为严格的默认安全标准,广告商必须主动选择,才能设置把广告放在更刺激的内容旁边。当广告出现在侮辱性内容旁边,Google 会发出一种应急警告。

这家硅谷巨头正在努力保住世界第二大广告客户联合利华(旗下有德芙和 Ben &Jerry’s 等消费品牌)。当其他品牌开始从 YouTube 撤广告时,联合利华发现,它旗下品牌也有 3 次出现在了不良内容频道里。

Google 某项目正在利用机器学习技术解决内容识别难题,因为广告客户认为 YouTube 上有些内容不体面。图片版权 Dado Ruvic/路透社

不过,联合利华的首席营销官 Keith Weed 决定不撤下广告,因为出现在不良内容旁的广告比例非常小。根据视频分析公司 OpenSlate 的数据,在 YouTube 上平均 10 万美元的广告就会覆盖 7000 多个频道,而联合利华在 YouTube 上花了上亿美元。而且 Google 发现,问题广告的出现是因为安全级别设置中有个人工的错误。

Weed 说,最符合联合利华利益的做法是取得对方的让步,而非终止合作。作为新举措的一部分,Google 同意与外部公司合作,进行第三方内容审核,以确定 YouTube 上的广告位安排。

Weed 说,从前他提出要独立审查时,Google 高管认为,这像是暗示他们不值得信任。Weed 说,这与信任无关,而是企业能否“批改自己的作业”。他说,他认为 Google 最终会同意的,只不过“现在的情况加快了他们的计划。”

人们注意到了 Google 的努力。比如强生公司表示,他们恢复了在某些国家的 YouTube 广告。Google 表示,其他企业也开始回归了。

总地来说,此前 Google 没有充分解决这个问题,原因是,这不是非解决不可;广告出现在不良内容旁的概率很低,而且这不在广大受众的视野范围内。Google 表示,对许多顶级广告客户来说,出现不良内容的情况还不及他们广告总量的 0.001%。

为了训练计算机系统,Google 正在采用机器学习技术——这也是 Google 许多重大技术突破的基础,比如无人驾驶车。Google 还引入了大批人工团队(拒绝透露团队的规模)来审查计算机标记的内容是否合适。

本质上,他们在教计算机学习这些内容:穿着运动胸罩和裤袜的女性做瑜伽,这类运动视频没有性暗示,对广告客户是安全的。同样的道理,好莱坞动作片中,演员持枪的情节对某些广告客户来说可以接受,但类似画面一旦涉及伊斯兰国组织(Islamic State)狙击手就不合适了。

Google 过去做过一个类似电影评级的视频自动评级系统,标准是对特定观众群的合适程度。但 Google 现在着力解决的是另一个问题。

“计算机要理解上下文会更加困难,所以我们在用目前最新、最好的机器学习技术实现这个效果,” Schindler 说。

Google 计算机系统会把一段 YouTube 视频拆解成一帧一帧的,分析每个画面,辅以人工审查的实例判断哪些内容安全、哪些不安全。计算机也能分析视频中的对话、作者提供的内容简介,并识别图形信号,发现不良内容的微小线索等。

目的就是让机器最终自己抉择。如果品牌认为 Google 没有标记出不良内容,这些情况会反馈给计算机,随着时间推移,计算机系统会越发完善。

Google 表示,目前标记的不适用广告的视频数量是先前的 5 倍,但它拒绝提供相关视频的绝对数量。

每一分钟,YouTube 就有 10 万多个上传视频、400 个小时新内容,300 万个赞助商频道上线,Schindler 说,Google 不可能保证彻底消灭问题内容。他打了个比方,汽车公司不能承诺轮胎跑 1 万英里不出问题,哪怕是新轮胎。

“没有哪个系统百分百完美,”他说,“但我们在尽全力保证它尽可能安全。”



   


 


  

本文转自d1net(转载)

网友评论

登录后评论
0/500
评论
boxti
+ 关注