AIBetas消息,2023年8月15日,OpenAI在其官方Blog宣布,将使用 GPT-4 进行内容政策制定和内容审核决策,从而实现更一致的标签、更快的政策细化反馈循环,并减少人工审核人的参与。
内容审核在维持数字平台的健康发展方面发挥着至关重要的作用。使用 GPT-4 的内容审核系统可以更快地迭代策略更改,将周期从几个月缩短到几小时。GPT-4 还能够解释长内容政策文档中的规则和细微差别,并立即适应政策更新,从而实现更一致的标签。
内容审核方面的挑战
内容审核需要一丝不苟的努力、敏感性、对上下文的深刻理解,以及快速适应新的用例,这使得它既耗时又具有挑战性。传统上,这项任务的负担落在了人工版主身上,他们筛选大量内容以过滤掉有毒和有害的材料,并由较小的垂直特定机器学习模型提供支持。这个过程本质上是缓慢的,可能会给人类版主带来精神压力。
OpenAI大型语言模型(如 GPT-4)可以理解和生成自然语言,使其适用于内容审核。模型可以根据提供给它们的政策指南做出适度判断。使用此系统,开发和自定义内容策略的过程从几个月缩短到几小时。
- 编写策略指南后,策略专家可以通过识别少量示例并根据策略为其分配标签来创建一组黄金数据集。
- 然后,GPT-4 读取策略并将标签分配给同一数据集,而不会看到答案。
- 通过检查 GPT-4 的判断与人类判断之间的差异,政策专家可以要求 GPT-4 提出其标签背后的推理,分析政策定义的歧义,解决混淆并相应地在政策中提供进一步的澄清。可以重复步骤 2 和 3,直到对策略质量感到满意。
此迭代过程生成转换为分类器的优化内容策略,从而能够大规模部署策略和内容审查。或者,为了大规模处理大量数据,可以使用 GPT-4 的预测来微调更小的模型。
这个简单而强大的想法为传统的内容审核方法提供了一些改进:
- 更一致的标签。 内容政策在不断发展,而且通常非常详细。人们可能会以不同的方式解释政策,或者某些版主可能需要更长的时间来消化新的政策变化,从而导致标签不一致。相比之下,LLM对措辞的细微差异很敏感,可以立即适应政策更新,为用户提供一致的内容体验。
- 更快的反馈循环。政策更新的周期——制定新政策、标记和收集人工反馈——通常是一个漫长而漫长的过程。GPT-4 可以将这一过程缩短到数小时,从而更快地对新的危害做出反应。
- 减轻精神负担。持续接触有害或令人反感的内容会导致人类版主的情绪疲惫和心理压力。自动化此类工作有利于相关人员的福祉。
局限性
语言模型的判断容易受到在训练期间可能引入模型的不需要的偏差的影响。与任何人工智能应用程序一样,结果和输出需要通过保持人类在循环中来仔细监控、验证和完善。通过减少人力参与可由语言模型处理的审核流程的某些部分,人力资源可以更专注于解决策略细化最需要的复杂边缘情况。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END
暂无评论内容