• 简中
    • 繁中
  • 注册
  • 查看作者
  • Twitter测试全新审核工具 告诉用户使用攻击性语言回复前需三思

    据外媒The Verge报道,
    Twitter正在尝试使用一种新的审核工具,在用户发布包含该公司所说的“有害”语言的回帖之前,将警告用户。Twitter将其描述为一个有限的实验,而且只针对iOS用户。Twitter官方支持频道的一条消息称,现在应该是在某些情况下会弹出的提示,“如果你的回复中使用了可能有害的语言,你可以选择在发布之前修改你的回复”。

    Twitter测试全新审核工具 告诉用户使用攻击性语言回复前需三思

    这个方法并不是全新的,之前已经被不少其他社交平台使用过,最突出的是Instagram。这款由Facebook拥有的应用现在在用户发布标题前会警告用户,并附上一条消息,称该标题 “看起来与其他被报道的标题相似”。在这一变化之前,Instagram在去年夏天推出了针对评论的警告系统。

    目前还不清楚Twitter是如何给有害语言贴上标签的,但该公司确实有仇恨言论政策和一份更广泛的Twitter规则文件,其中列出了它对从暴力威胁、恐怖主义相关内容、以及虐待和骚扰等一切内容的立场。Twitter表示,它不会仅仅因为一些内容具有攻击性就将其删除:“人们可以发布内容,包括可能具有煽动性的内容,只要不违反Twitter规则。”但该公司确实拥有允许它对其广泛的言论政策进行例外处理的规则。

    尽管如此,这个新的实验似乎并不那么关注于遏制那些更极端的内容形式,而Twitter通常会对这些内容进行删除、暂停或禁止用户。相反,它似乎更多的是为了告诉用户避免使用不必要的和煽动性的语言,因为这些语言会使矛盾升级并可能导致账户被关停。

    cnBeta.COM  2020-05-06 09:21:26

  • 0
  • 0
  • 0
  • 157
  • 请登录之后再进行评论

    登录
  • 任务
  • 发布
  • 偏好设置
  • 单栏布局 侧栏位置: