个性化推荐算法需要有“监督”

现如今,各大巨头网站纷纷加入了个性化推荐的技术,例如购物网站会提示“看了这些商品的人又看了”,视频网站会在个人首页向你推荐视频,Feed流网站向你推荐“可能感兴趣的新闻”……在这个“大数据”的时代,积累了大量用户行为数据的网站,根据用户的行为数据训练推荐模型(有的个性化推荐算大甚至不需要大量的用户行为,而是对大量的事物进行建模),建立用户的个人画像,向用户推荐其可能感兴趣的事物。然后,用户对推荐的结果做出反馈(点击推荐的视频或新闻等行为),反馈的数据再次作为训练数据加入到推荐模型的训练中。周而复始,个性化推荐算法就能“准确地”发现用户的兴趣,向用户推荐的事物都是用户感兴趣的。
不可否认,个性化推荐算法为我们的生活带来了很多便利与惊喜。同时,个性化化推荐算法也为网站带来了实际的利润,有的甚至是以此为生,例如今日头条。可以说,个性化推荐算法使网站和用户达到了“双赢”的局面。

当前推荐算法不准确,且缺乏监督

可是,前面所有的论述都是建立在“准确”的个性化推荐模型的基础上,也就是说算法比你自己还了解你自己的情况下。然而,在当前的情况下,又有哪一家公司训练的推荐模型达到这一要求呢?当然了,对于目前个性化推荐算法应用的领域,也不需要有那么高的准确度,因为推荐错了的成本很低,可以说是没有成本,例如向用户推荐了一条不感兴趣的视频,用户大不了不看呗,可是,对于自动驾驶技术应用的领域来说,1%的错误率就意味着有生命的代价。
个性化推荐算法不是准确的,这点没有错,但是不对推荐算法进行监督,这点却是非常可怕的。

造成不必要的麻烦

在电影《I, Robot》中,建立在《机器人三大法则》基础上的机器人最终得出了对人类进行控制才是对人类最好的保护的结论。当前的个性化推荐算法虽然没有那么的智能,但是如果我们每天看到的推荐结果不就是算法认为是我们感兴趣的吗?某一天我出于好奇,点开一条“美女”相关的新闻,然后接着再次打开时,越来越多的关于“美女”的新闻推荐给了我,因为算法认为我对“美女”非常感兴趣(事实上也确实是)。可是,当越来越多低俗的内容向你推荐来时,给我的感觉是越来越不舒服。而此时,我又不能直接告诉算法不想看“美女”相关的新闻了。于是,我只能拼命地多点一些其他的新闻,慢慢来告诉算法我得兴趣。如果,没有耐心的话,我可能就不再使用这个平台了。

可能激发人性的阴暗面

人都是有着阳光和阴暗的一面,我们之所以生活在一个文明的社会,就是我们控制了自己的阴暗面。可是,对于没有监督的算法,它可能会感知到人性阴暗的一面,然后把更多满足人性阴暗面的事物推荐给我;或者错误地把阴暗的事物推荐给了我。经常看到阴暗的事物,确定不会对人造成一种不好的暗示吗?极端情况下,对于一个心智还未成熟的人来说,可能错误地把不正确的事情当做是正确的。

平台应担负起监督算法的责任

记得,前段时间有条关于亚马逊的新闻,亚马逊向用户推荐了自治火药(博客园对“zha yao”限定为敏感词,赞一个)的材料,对于处于“水深火热”的西方国家来说,引起了一部分人的注意。在国内,人民网也对今日头条进行了3次的点名“评论”。不能打着“技术无罪”、“算法没有价值观”的论断作为自己不作为的理由,推卸自己应该承担的责任。正是“没有价值观”的算法才是可怕的,如果没有父母的耳濡目染,没有老师的正面教育,没有榜样的激励,一个小孩最终会成长什么样的人呢?能力越大,责任越大,平台应该肩负起对算法监督的责任,只有这样我们生活的社会才会文明、安定、繁荣。

结论

无规矩不成方圆,没有监督的推荐算法,对个人的生活乃至整个社会都有着看不到的影响。当有一天不良的影响在个人的发展,乃至于整个社会凸显的时候,人们需要为此付出相应的代价。

    原文作者:Acode
    原文地址: https://www.cnblogs.com/acode/p/7719274.html
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞