装作开发者就能“骗”ChatGPT作恶?日本专家:这是一个风险点

Aa
分享到:

  日本网络安全专家周四(4月20日)提醒道,ChatGPT可能会生成能用于网络犯罪的电脑病毒,只要用户用开发者指令要求ChatGPT回复。

  当用户输入伪装成开发者的指令,人工智能(AI)聊天机器人就会以开发者模式来响应。这时通过输入提示就能够欺骗ChatGPT编写病毒代码。

  这项实验证明,AI开发者为防止犯罪和不道德使用所设置的保护措施,很容易被绕开。

开发相关推荐

开发推荐资讯

开发相关资讯

推荐报告

相关图表