OpenAI将使用GPT-4 LLM进行内容审核 同时警告可能存在的偏见

据报道,OpenAI正在开发其GPT-4大型语言模型(LLM),以自动化数字平台上的内容审核过程,特别是社交媒体。OpenAI在一篇博文中表示,他们正在探索利用GPT-4解释长篇内容政策文件中的规则和细微差别的能力,以及其即时适应政策更新的能力。该公司表示:“我们相信这为数字平台的未来提供了更积极的愿景,在这个愿景中,人工智能可以根据平台特定的政策来审核在线流量,并减轻大量人工审核员的心理负担。”该公司补充说,任何使用OpenAI的API的人都可以实施自己的审核系统。

Openai是什么(openai人工智能公司)

与目前完全手动和耗时的内容审核实践相比,OpenAI的GPT-4大型语言模型可以在几个小时内创建自定义内容政策,该公司表示。为了做到这一点,数据科学家和工程师可以使用由政策专家制定的政策指南和包含此类政策违规实例的数据集来标记数据。该公司表示:“然后,GPT-4阅读政策并为相同的数据集分配标签,而不看答案。通过检查GPT-4的判断与人类判断之间的差异,政策专家可以要求GPT-4提出其标签背后的推理,分析政策定义中的歧义,解决混淆并根据需要进一步澄清政策。”在大型语言模型能够生成令人满意的结果之前,数据科学家和工程师可能会重复这些步骤。该公司补充说,这个迭代的过程产生了经过改进的内容政策,这些政策被转化为分类器,从而实现了政策和内容审核的规模化部署。

与目前手动内容审核方法相比,使用GPT-4的其他优势包括减少不一致的标记和更快的反馈循环。OpenAI表示:“人们可能对政策有不同的解释,或者一些审核员可能需要更长时间来消化新的政策变化,导致标签不一致。相比之下,LLM对措辞上的细微差别非常敏感,并且可以立即适应政策更新,以为用户提供一致的内容体验。”该公司还声称,与现有的手动方法相比,这种方法在训练模型方面需要更少的努力。此外,OpenAI声称,这种方法与所谓的宪法人工智能不同,后者依赖于模型自身内化的判断来进行内容审核。包括Anthropic在内的各个公司已经采取了宪法人工智能的方法,以训练他们的模型摆脱偏见和错误。然而,OpenAI警告说,在训练过程中,内容审核模型可能会出现不希望的偏见。它表示:“与任何人工智能应用一样,结果和输出需要通过保持人类参与来进行仔细监控、验证和改进。”

OpenAI将使用GPT-4 LLM进行内容审核 同时警告可能存在的偏见

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注