快手宿华:算法背后需要价值观,可以向信息茧房说不
|
其次,要有一个很详细规则的制定。这个世界非常的复杂,有很多的判断标准在不同的群体里面,结论可能都不一样的。作为一个大众平台,我们会把握到一个程度能够使得大家整体的满意度最高,内容很详细。详尽而复杂的机制,那个机制也是演化的机制,不是一个固化的机制,它会持续的迭代和改进。 第三,技术的支持,不光是有人力的投入,有机制的建设,还有技术,这里面特别是AI技术的投入。因为所有的视频如果都靠人工去做的话无法完成,延时会特别大,时间也会耗得比较长,所以我们在努力把这些人曾经审核过的积累下来的经验,一部分变成机器可以利用和理解的,使得一些有风险的内容能够被机器提前找出来。可能今天算法无法完全自动换算,但是它可以把有风险的东西提前放在那儿,让人工再去确认,它的总体效率会更高。 举个最典型的例子,你可能看到一个视频,曾经被人判断过是违规的,出现了一个新的视频跟旧的视频不一样,但很像,这时候机器就会发挥很重要的作用,机器可以自动地说,它跟曾经出问题的某个视频非常像,我们是不是应该先把它hold在这儿,然后让人去确认一下,再来决定这样的视频是不是放出去。另外还有一些AI可以自动做识别,做图象识别去解决一些违规的问题。 上述这几块是在内部的,我们还干了一件事情,要利用外部的智慧,因为很多问题光关起门来自己讨论、自己思考可能是不够的,当然我们会熟读法律,熟读法规,以及跟监管部门做好的沟通。 但是,我觉得还应该引入社会化的知识,包括各领域专家、大学教授、媒体记者等,然后把有见识的、有见地的外部人士定期请到快手来探讨短视频内容伦理;快手也有网上的工具交给专家学者投票决定,有一些东西我们很难判断清楚、产生争议的,会让这些专家、学者代表社会的认知去帮助我们做一些判断。 所以内部、外部、技术、人工是一个综合的系统,确实花了挺长时间去搭建,早期可能更多依靠人力,包括我自己的力量,中期更多靠技术的力量,我们到最近开始引入社会化的力量一起来解决问题。 记者:这中间会不会面临一刀切的难题,一刀切但又不能误伤到一些好人,这中间现在有一个比较好的平衡吗? 宿华:对,你问的确实是个挺艰难的问题。对内容,特别是视频内容的判断难度是非常大的,因为很多的内容可以偏左点偏右一点的判断,我们目前是尽量让所有的规则能够被人理解。我可能无法完全杜绝说每一个被删除的视频,所有人都认为它应该删除。 记者:我可以理解,技术先筛一遍,把肯定不靠谱的筛出去再留给人工。 (编辑:网站开发网_安阳站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |


