dent: 2em;">
英国反恐立法独立审查人员表示,需要制定新法律来打击可能导致用户激进化的人工智能(AI)聊天机器人。
Jonathan Hall KC在《每日电讯报》上写道,政府去年通过的新在线安全法“不适合复杂的、可生成的人工智能”。
霍尔表示:“只有人类才能犯下恐怖主义罪行,很难确定一个人可以在法律上对聊天机器人生成的鼓励恐怖主义的言论负责。”
“我们的法律必须能够阻止最愤世嫉俗或最鲁莽的网络行为——这必须包括在最坏的情况下触及大型科技平台的幕后,使用适合人工智能时代的最新恐怖主义和网络安全法。”
霍尔先生说,他去了在线聊天机器人网站字符。他假扮成一名公众,并与几个人工智能聊天机器人交谈。
调查和起诉匿名用户总是很困难,但如果恶意或被误导的个人坚持训练恐怖主义聊天机器人,那么就需要制定新的法律。
其中一人被称为伊斯兰国组织的高级领导人,试图招募他加入恐怖组织。
霍尔表示,该网站的条款和条件“只禁止人类用户提交宣扬恐怖主义或暴力极端主义的内容,而不禁止机器人生成的内容”。
他说:“调查和起诉匿名用户总是很困难的,但如果恶意或被误导的个人坚持训练恐怖主义聊天机器人,那么就需要制定新的法律。”
在给《每日电讯报》的一份声明中,性格。人工智能表示,虽然他们的技术并不完美,而且仍在不断发展,但“我们的服务条款都禁止仇恨言论和极端主义”,并补充说:“我们的产品永远不会产生鼓励用户伤害他人的回应。”
专家此前曾警告ChatGPT和其他聊天机器人的用户,在使用该技术时不要分享私人信息。
牛津大学(Oxford University)计算机科学教授迈克尔•伍尔德里奇(Michael Wooldridge)表示,向人工智能抱怨人际关系或表达政治观点是“极其不明智的”。
伍尔德里奇教授表示,用户应该假设,他们在ChatGPT或类似的聊天机器人中输入的任何信息“都会直接输入到未来的版本中”,而且一旦进入系统,数据几乎不可能被找回来。