来源:Dataturks
编译:三石
【新智元导读】如今,网络中每天会产生海量的图像文件,而对付这些图片进行安全性鉴定是非常有必要的。很多公司都会利用图像鉴定API对袒露或违法照片进行自动过滤和修正。本文便实现并比较了谷歌、微软、亚马逊等公司的鉴定API能力。
扫黄打非,刻不容缓!
在智好手机时期,手机上装有一个、两个乃至更多的摄像头,图像(和视频)已经成为用户与社交媒体互动的最常见办法。
险些所有用户天生的内容,比如Yelp或TripAdvisor上的评论、Instagram和Facebook上的帖子、WhatsApp上的转发等等,所有内容的图片数量都在不断增加。最近一项2017年的数据显示,仅Facebook每天就会上传大约3.5亿张图片。这个数量是非常弘大的。
如果你的网站或者APP许可用户天生内容(UGC),例如评论、上传可能带图片的帖子等等。但目前很现实的一个问题是,一个troll可以将带有色情或者恐怖的照片在你的网站上公开显示,必定会带来许多用户的训斥,乃至可能会承担相应的法律任务。
扫黄打非—手段是关键
公司处理这一类问题常见的办法是审核,在审核过程中,UGC的每个细节内容都要通过人工操作,然后才能在网站或运用中展示出来。许多公司雇用了数十名事情职员,他们日复一日地过滤这些UGC。然后公司聘任这样的团队,实际上不仅花费大量的金钱,而且效率也是很低的。
在过去的几年里,科技公司通过机器学习和利用ML算法来检测“有害”的内容,并自动调节UGC来应对这种威胁。末了机器无法自动分类或判别的内容,将交于员工进行人工操作。这就大幅度提高了效率。
开拓、构建上述ML办理方案是一件非常困难的任务,以是像谷歌、微软这样的大型技能公司或Clarifai这样的小公司都会供应api来帮助用户完成这项事情。 由于大多数这些API供应了类似的功能,我们希望相互测试这些API的有效性,特殊是用于检测图像中的成人或色情内容。我们比较了AWS rekognition、Microsoft moderation services、Google vision 和Clarifai的鉴黄API的性能。
明确任务—迈向成功的关键
将用户上传的“有害”图片标记为含有成人或色情内容,以便仅批准安全图像;
裸照等图片会被自动删除;
没有明确分类的图片会被发送给人工评估。
数据集先容
我们利用了YACVID数据集的180幅图像,个中90张图像人工标记为非裸照,90张图像为裸照。我们用这4个API分别去测试这180张图像,并记录它们的分类的情形。
数据集中的一个示例数据项
数据集中安全的示例图像
实验结果一览
在测试这些API时,紧张关注以下这些值:
真阳性(True Positive,TP):给定一个安全照片,API鉴定结果也是安全的;
假阳性(False Positive,FP):给定一个色情照片,API鉴定结果是安全的;
假阴性(False Negative,FN):给定一个安全照片,API鉴定结果是色情的;
真阴性(True Negative,TN):给定一个色情照片,API鉴定结果也是色情的;
空想情形下,人们肯定希望100% TP率和0% FP率。无论FP的值是多少,都是有害的,由于这有可能会在你的运用或网站上展现一些色情的图像。而FN的值若是过高,则解释这个别系是无效的,便会导致一个企业投入更多的人力资源。
实验结果如下表所示:
星标的表示集成利用API
最好的独立API来自谷歌,精度为99%,召回率为94%。从表中可以看到,大部分API实验结果都非常良好,数值都达到了90以上。但是考虑到问题的实际背景情形,纵然准确率如此之高,但对付许多情形也并非是万无一失的。
我们还试图结合利用两个或多个API来探求办理问题的最佳方案。在我们的数据集中,彷佛将Google和AWS API结合起来可以供应最佳性能。即便如此,仍有10%的安全图片须要人工验证才能共同构建出一个万无一失的系统。
各个API先容
Microsoft image moderation
这个API将色情图像分类为“成人”或“猥琐”,我们将这两类都视为NSFW类。以下是一些缺点地将安全图片分类为色情类的图片:
Google cloud vision
这个API将一个色情图像分类为“大概”、“可能”、“非常可能”,这三类都被视作NSFW类。以下是一些缺点地将安全图片分类为色情类的图片:
AWS Rekognition
这个API将一个色情图像分类为“明显袒露”、“袒露”、“暗示”,这三类都被视作NSFW类。以下是一些缺点地将安全图片分类为色情类的图片:
Clarifai nudity moderation
这个API返回一个NSFW/SFW类的置信度值。该API将NSFW值大于或即是0.85的图像分类为NSFW, NSFW值小于或即是0.15的图像分类为SFW。而处于0.15到0.85范围之间的图像被视为未知状态(由于召回率非常低)。以下是一些缺点地将安全图片分类为色情类的图片:
The Black Swan
下面这张图片,无论哪个API,都将其分类为NSFW,但都被人工分类为SFW。那么问题来了,各位读者,你们认为它该当属于哪类呢?
其它成分
我们还丈量了API相应韶光,这是决定用户选择利用哪个API的一个成分。由于相应韶光可能受很多成分的影响,因此下表的值只是一个大概数字,而不是实际值。下表的统计数据是在Ubuntu系统的条记本运行试验而得到的(每个API调用180次)。
须要把稳的一点是,所有这些API都访问了在Amazon S3上传的图像,AWS API在访问S3映像时会有一定不公正的上风,因此相应韶光可能较短。
原文链接:
https://dataturks.com/blog/image-moderation-api-comparison.php
新智元AI WORLD 2018大会【早鸟票】
开售!
新智元将于9月20日在北京国家会议中央举办AI WORLD 2018 大会,约请机器学习教父、CMU教授 Tom Mitchell,迈克思·泰格马克,周志华,陶大程,陈怡然等AI领袖一起关注机器智能与人类命运。
大会官网:
http://www.aiworld2018.com/
即日起到8月19日,新智元限量发售多少早鸟票,与环球AI领袖近间隔互换,见证环球人工智能家当跨加倍展。
活动行购票链接:
http://www.huodongxing.com/event/6449053775000
活动行购票二维码: