ChatGPT引发虚假信息泛滥担忧

ChatGPT引发虚假信息泛滥担忧,一位政治学教授表示,ChatGPT 可能看起来只是另一个信息来源,但它产生输出的方式引发了对可靠性的质疑。

机器学习模型看起来很复杂,但它们基本上只是复杂的自动完成机器,将其他人的工作重新打包,就好像它是新事物一样,而不了解它们产生的结果。

这就是为什么虽然 ChatGPT 可以创建明显连贯的书面作品,但将其输出误认为科学知识是不可取的。

chatgpt

在 ChatGPT 引发的所有反应中,美国营利性公司 OpenAI 的聊天机器人能够对自然语言查询做出语法正确的反应,但很少有人能与教育工作者和学者的反应相提并论。

学术出版商已开始禁止将 ChatGPT 列为合著者,并发布严格的指导方针,概述其使用条件。世界各地的主要大学和学校,从法国著名的巴黎政治学院到许多澳大利亚大学,都禁止使用它。

这些禁令不仅仅是担心他们无法抓到作弊者的学者的行为。这不仅仅是要抓住没有注明出处就抄袭来源的学生。相反,这些行为的严重性反映了一个问题,一个在 OpenAI 的 ChatGPT 聊天机器人无休止的报道中没有得到足够关注的问题:为什么我们应该相信它输出的任何东西?

这是一个至关重要的问题,因为 ChatGPT 和类似程序可以很容易地在构成我们社会基础的信息源中使用,无论是否得到承认,尤其是学术界和新闻媒体。

根据我在知识治理政治经济学 方面的工作,对 ChatGPT 使用的学术禁令是对 ChatGPT 对我们整个信息生态系统构成的威胁的相应反应。记者和学者应谨慎使用 ChatGPT。

根据其输出,ChatGPT 可能看起来只是另一个信息源或工具。然而,实际上,ChatGPT——或者更确切地说,ChatGPT 产生输出的方式——是一把匕首,直接瞄准了它们作为权威知识来源的可信度。不应掉以轻心。

ChatGPT引发虚假信息泛滥担忧

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注