来源:Dataturks

编译:三石

【新智元导读】如今,网络中每天会产生海量的图像文件,而对付这些图片进行安全性鉴定是非常有必要的。
很多公司都会利用图像鉴定API对袒露或违法照片进行自动过滤和修正。
本文便实现并比较了谷歌、微软、亚马逊等公司的鉴定API能力。

鉴黄php机械进修看裸照谷歌微软亚马逊哪家图像API鉴黄才能强 CSS

扫黄打非,刻不容缓!

在智好手机时期,手机上装有一个、两个乃至更多的摄像头,图像(和视频)已经成为用户与社交媒体互动的最常见办法。

险些所有用户天生的内容,比如Yelp或TripAdvisor上的评论、Instagram和Facebook上的帖子、WhatsApp上的转发等等,所有内容的图片数量都在不断增加。
最近一项2017年的数据显示,仅Facebook每天就会上传大约3.5亿张图片。
这个数量是非常弘大的。

如果你的网站或者APP许可用户天生内容(UGC),例如评论、上传可能带图片的帖子等等。
但目前很现实的一个问题是,一个troll可以将带有色情或者恐怖的照片在你的网站上公开显示,必定会带来许多用户的训斥,乃至可能会承担相应的法律任务。

扫黄打非—手段是关键

公司处理这一类问题常见的办法是审核,在审核过程中,UGC的每个细节内容都要通过人工操作,然后才能在网站或运用中展示出来。
许多公司雇用了数十名事情职员,他们日复一日地过滤这些UGC。
然后公司聘任这样的团队,实际上不仅花费大量的金钱,而且效率也是很低的。

在过去的几年里,科技公司通过机器学习和利用ML算法来检测“有害”的内容,并自动调节UGC来应对这种威胁。
末了机器无法自动分类或判别的内容,将交于员工进行人工操作。
这就大幅度提高了效率。

开拓、构建上述ML办理方案是一件非常困难的任务,以是像谷歌、微软这样的大型技能公司或Clarifai这样的小公司都会供应api来帮助用户完成这项事情。
由于大多数这些API供应了类似的功能,我们希望相互测试这些API的有效性,特殊是用于检测图像中的成人或色情内容。
我们比较了AWS rekognition、Microsoft moderation services、Google vision 和Clarifai的鉴黄API的性能。

明确任务—迈向成功的关键

将用户上传的“有害”图片标记为含有成人或色情内容,以便仅批准安全图像;

裸照等图片会被自动删除;

没有明确分类的图片会被发送给人工评估。

数据集先容

我们利用了YACVID数据集的180幅图像,个中90张图像人工标记为非裸照,90张图像为裸照。
我们用这4个API分别去测试这180张图像,并记录它们的分类的情形。

数据集中的一个示例数据项

数据集中安全的示例图像

实验结果一览

在测试这些API时,紧张关注以下这些值:

真阳性(True Positive,TP):给定一个安全照片,API鉴定结果也是安全的;

假阳性(False Positive,FP):给定一个色情照片,API鉴定结果是安全的;

假阴性(False Negative,FN):给定一个安全照片,API鉴定结果是色情的;

真阴性(True Negative,TN):给定一个色情照片,API鉴定结果也是色情的;

空想情形下,人们肯定希望100% TP率和0% FP率。
无论FP的值是多少,都是有害的,由于这有可能会在你的运用或网站上展现一些色情的图像。
而FN的值若是过高,则解释这个别系是无效的,便会导致一个企业投入更多的人力资源。

实验结果如下表所示:

星标的表示集成利用API

最好的独立API来自谷歌,精度为99%,召回率为94%。
从表中可以看到,大部分API实验结果都非常良好,数值都达到了90以上。
但是考虑到问题的实际背景情形,纵然准确率如此之高,但对付许多情形也并非是万无一失的。

我们还试图结合利用两个或多个API来探求办理问题的最佳方案。
在我们的数据集中,彷佛将Google和AWS API结合起来可以供应最佳性能。
即便如此,仍有10%的安全图片须要人工验证才能共同构建出一个万无一失的系统。

各个API先容

Microsoft image moderation

这个API将色情图像分类为“成人”或“猥琐”,我们将这两类都视为NSFW类。
以下是一些缺点地将安全图片分类为色情类的图片:

Google cloud vision

这个API将一个色情图像分类为“大概”、“可能”、“非常可能”,这三类都被视作NSFW类。
以下是一些缺点地将安全图片分类为色情类的图片:

AWS Rekognition

这个API将一个色情图像分类为“明显袒露”、“袒露”、“暗示”,这三类都被视作NSFW类。
以下是一些缺点地将安全图片分类为色情类的图片:

Clarifai nudity moderation

这个API返回一个NSFW/SFW类的置信度值。
该API将NSFW值大于或即是0.85的图像分类为NSFW, NSFW值小于或即是0.15的图像分类为SFW。
而处于0.15到0.85范围之间的图像被视为未知状态(由于召回率非常低)。
以下是一些缺点地将安全图片分类为色情类的图片:

The Black Swan

下面这张图片,无论哪个API,都将其分类为NSFW,但都被人工分类为SFW。
那么问题来了,各位读者,你们认为它该当属于哪类呢?

其它成分

我们还丈量了API相应韶光,这是决定用户选择利用哪个API的一个成分。
由于相应韶光可能受很多成分的影响,因此下表的值只是一个大概数字,而不是实际值。
下表的统计数据是在Ubuntu系统的条记本运行试验而得到的(每个API调用180次)。

须要把稳的一点是,所有这些API都访问了在Amazon S3上传的图像,AWS API在访问S3映像时会有一定不公正的上风,因此相应韶光可能较短。

原文链接:

https://dataturks.com/blog/image-moderation-api-comparison.php

新智元AI WORLD 2018大会【早鸟票】

开售!

新智元将于9月20日在北京国家会议中央举办AI WORLD 2018 大会,约请机器学习教父、CMU教授 Tom Mitchell,迈克思·泰格马克,周志华,陶大程,陈怡然等AI领袖一起关注机器智能与人类命运。

大会官网:

http://www.aiworld2018.com/

即日起到8月19日,新智元限量发售多少早鸟票,与环球AI领袖近间隔互换,见证环球人工智能家当跨加倍展。

活动行购票链接:

http://www.huodongxing.com/event/6449053775000

活动行购票二维码: