行业动态

Facebook使用AI监控用户跟帖中的争吵 可自动通知群管理员

来源:聚铭网络    发布时间:2021-06-18    浏览次数:
 

信息来源:Cnbeta

Facebook正在推出一套新的工具,以帮助组管理员掌握他们的社区,其中包括一个由AI驱动的功能,Facebook说它可以识别在评论中发生的有争议的或不健康的对话。这个工具被称为"冲突警报",Facebook说它目前只是在测试阶段,所以正式推出日期还不清楚。


它类似于现有的"关键词警报"功能,让管理员在评论者使用某些词汇和短语时创建自定义警报,但使用机器学习模型可以来尝试发现更微妙的麻烦类型。一旦管理员收到警报,他们就可以采取行动,删除评论,将用户从小组中踢出,限制个人的评论频率,或限制对某些帖子的评论频率。

不过,这项功能究竟如何检测出"有争议或不健康的对话"还不清楚,而且在征求意见时,Facebook没有提供更多细节。一位发言人仅表示,该公司将使用机器学习模型来查看多种信号,如回复时间和评论量,以确定用户之间的互动是否已经或可能导致负面互动。

不过,据推测,"冲突警报"使用的人工智能系统与Facebook已经部署,用于标记网站上滥用性言论的系统类似。这类模型远非百分之百可靠,而且经常被幽默、讽刺和俚语等简单事物所蒙蔽。

今天为管理员推出的其他新工具包括一个新的管理员主页,它将作为一个仪表板,提供帖子、成员和报告的评论的概述,以及访问新的成员摘要,它汇编了每个小组成员在小组中的活动,例如他们发帖和评论的次数,或者他们何时在小组中被删除帖子或被静音。

此外,还有一个新的管理员辅助功能,用于自动评论审核。这将让管理员限制谁可以发表评论,以及通过禁止某些链接来遏制垃圾邮件和不需要的促销活动。冲突警报功能将是管理助理的一部分。


 
 

上一篇:80%支付赎金的企业会遭到二次勒索攻击 其中46%来自同一黑客

下一篇:2021年6月18日聚铭安全速递