OpenAI CEO 警告 GPT-4 可能被滥用于邪恶目的

简而言之, OpenAI 的首席执行官 Sam Altman 在接受电视采访时承认,他对语言模型对社会造成的影响和风险“有点害怕”。

Altman 警告说,他们自动生成文本、图像或代码的能力可能会被用来发起虚假信息活动或网络攻击。

“我们在这里必须小心,”他告诉ABCNews。“我认为人们应该为我们对此有点害怕而感到高兴。”

OpenAI 因其对其最新 GPT-4 语言模型的技术细节保密而受到批评——它没有披露有关模型大小、架构、训练数据等的信息。

然而,有些人对这家初创公司的行为感到困惑。如果这项技术像 OpenAI 声称的那样危险,为什么任何愿意为此付费的人都可以轻松获得它?尽管如此,奥尔特曼补充说:我确实担心的是……我们不会成为这项技术的唯一创造者。会有其他人不对我们施加的一些安全限制进行限制。

即时消息应用程序 Discord 在推出一系列新的生成 AI 功能后悄悄取消了承诺不收集用户数据的政策,并在用户注意到变化后将其重新添加。

Discord 推出了一个名为 Clyde 的聊天机器人——由 Stable Diffusion 和 OpenAI 开发的人工智能模型提供支持——能够生成文本和图像以生成模因、笑话等。

当它为 Clyde 添加新功能时,其隐私政策中的一段内容突然消失了:“我们通常不会存储视频或语音通话或频道的内容”和“我们也不会在您共享屏幕时存储流媒体内容” . 用户越来越担心聊天平台可能会收集和存储他们的数据以训练未来的人工智能模型。

据TechRadar 报道,Discord 在受到批评后悄悄地重新添加了这两条规则。一位发言人说:“我们认识到,当我们最近在我们的隐私政策中发布调整后的语言时,我们无意中在我们的用户中造成了混淆。要明确的是,没有任何改变,我们已经将语言重新插入我们的隐私政策,以及一些额外的澄清信息。”

然而,Discord 确实承认它可能会构建未来处理语音和视频内容的功能。

OpenAI CEO 警告 GPT-4 可能被滥用于邪恶目的

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注