原标题:腾讯的“黄施简”:系统识别率超过95%,还支持“焦川识别”。1月20日消息,腾讯公开发布文件《我是一名“鉴黄师”,但和你想的不一样》,介绍腾讯安全部内容风控天宇团队研发总监费伊的故事。
许多人可能对“黄施简”有特殊的好奇心和想象力。许多人可能认为费伊的日常工作是盯着几个“彩色”屏幕看一天。从长远来看,会有心理扭曲吗?事实上,情况并非如此。
"传统的取证依赖于肉眼,我们更依赖于技术."费伊说,虽然这两项工作内容重叠,但本质不同。
2015年,费伊加入腾讯,在网络安全中心做基础平台研发。第二年,由于直播造成的混乱,成立了一个由10名成员组成的“黄施简”小组,专注于审计系统的研究和开发。
为了训练人工智能,费伊和他的同事每周将随机检查50,000条数据,包括图片、音频和文本,进行人工审查,筛选出不良内容,并标记违规类型。这些标记的样本将被发送到人工智能模型进行学习和训练,以了解它们的共同特征,并在随后的判断中“智能地”识别不良内容。"现在系统的识别率提高了95%以上."费伊认为他的工作更像人工智能训练员,而不是“鉴定人”。色情、血腥和暴力的图像很容易识别,而有些非常隐蔽,试图绕过人工智能例如,费伊说,在一些音频场景中,前半部分是正常的,“中间有一个女人的咕噜声。”有些甚至是男人。
随后,技术团队开发了一个“呼吸识别”系统来清除音频场景中的非法内容。然而,仍然有必要不断地促进算法模型的优化和升级,例如识别噪声背景中的语音违规。