网络谣言被辟谣:Open AI断言ChatGPT密码安全无忧

  • 资讯
  • 2024-01-31 10:06:17
  • 0
  • admcpc198

  据Ars Technica报道称,一名用户声称OpenAI的ChatGPT泄露了私人和不相关的用户对话,包括药房用户的工单和显示多个网站登录凭证的代码片段。

  Chase Whiteside向Ars解释说,他们一直在使用ChatGPT来想出“调色板中颜色的巧妙名称”,然后显然离开了屏幕。当他们重新打开它时,他们发现页面左侧有更多的对话,这些对话都不是他们自己发起的。但是OpenAI不同意。

  “Ars Technica在我们的欺诈和安全团队完成调查之前发表了一份报告,不幸的是,他们的报告并不准确,”一位发言人在回答关于Ars报告的问题时告诉我们。“根据我们的调查结果,用户的账户登录凭证被盗,然后一个恶意行为者使用了这个账户。显示的聊天历史和文件是该账户被滥用的对话,而不是ChatGPT显示了另一个用户的历史。”在读者截图和发送给Ars的对话中,有一个交流,包括制作演示手稿和一些PHP代码,似乎包含了上述药房门户的故障处理工单。更奇怪的是,这些工单的文本显示它们是在2020年和2021年发起的,而ChatGPT还没有推出。

  该网站并没有解释这些日期的不一致性,但它们很可能是中央集团GPT培训数据的一部分。事实上,去年,中央集团GPT制造商OpenAI被一起巨大的集体诉讼指控,该公司秘密使用大量的医疗数据和其他个人信息来训练其大型语言模型(LLM)。

  在不到18个月的历史中,ChatGPT多次被指控是一个漏洞百出的水龙头。2023年3月,Open人工智能被迫承认,一个故障导致聊天机器人向无关用户展示了一些用户之间的对话。12月,该公司推出了一个补丁,以修复另一个可能向未经授权的第三方披露用户数据的问题。

  2023年底,谷歌的研究人员发现,ChatGPT会通过使用一些“攻击”提示或让聊天机器人做一些他们不应该做的事情来泄露大部分训练数据。然而,如果没有别的,这至少提醒我们一个古老的操作安全格言:不要把你不想让陌生人看到的东西放在ChatGPT或其他程序中。


上一篇:谁将成为恒大清盘后的第一受益者,投资者们翘首以待!
下一篇:资金补给!保利发展拟发行15亿债券 支撑企业流动性需求

猜你喜欢