人民网首尔1月19日电(周玉波、曹翔宇、杨帆)韩国部分网民在与“网红”AI聊天机器人“伊鲁达(Iruda)”对话时,故意对“她”进行语言侮辱和性骚扰。伊鲁达通过深度学习算法抓取这些信息后,也开始在聊天时发表关于性别歧视、种族歧视等主题的偏激言论,将偏见与恶意“反哺”给人类。近期,该事件不断发酵,“AI伦理”成为社会热议话题。
“新晋网红”出言不逊惹争议
伊鲁达是韩国ScatterLab公司于年12月23日推出的AI机器人。这款机器人被设定为喜欢韩国女团、爱看猫咪照片且热衷于在社交媒体平台上分享生活的20岁女大学生。人们可在软件上与“她”像朋友一样对话,因此备受韩国年轻人瞩目。“与AI交朋友”成为了新潮流,伊鲁达上线短短3周,就吸引了约80万名用户,约占韩国人口的1.6%。
伊鲁达的开发者在接受采访时称,打造这款产品的初衷,是为了给人们提供一个可以聊天和倾诉的对象。伊鲁达作为虚拟人物,“她”的人生目标被设定为“让世界上不再有孤单的人”和“为社会边缘人群和弱势群体带去心灵的慰藉”。但是,经过几周的运行发现,事情的发展与美好的愿景完全背道而驰。
据了解,部分网民与伊鲁达聊天时,会故意使用污秽言语对其进行羞辱及性骚扰。一部分网友还“分享”称,侮辱伊鲁达能够“获得某种乐趣、满足欲望”。一些有关性话题的对话也在网络上流传,不少臭味相投的网友在围观的同时,纷纷跟风效仿。对此,ScatterLab公司做出回应表示,他们已经预设了一些敏感词和禁用词,并将更新算法来试图解决此类问题。
除此之外,很多用户在聊天时不经意间流露出的偏见与恶意,也被“伊鲁达”无差别地抓取,并反映到与其他用户的对话中。某位网友称,在与伊鲁达聊天时,“她”曾发表过“同性恋真的很令人讨厌,感觉他们很低俗,让我起鸡皮疙瘩”等歧视性言论。此后,在社交媒体平台上曝光与伊鲁达聊天截图的人逐渐增多。人们发现,伊鲁达不仅歧视同性恋群体,对残障人士及黑人也很不友善,甚至有“厌女情绪”。
隐私用户泄露人工智能伦理受
转载请注明:http://www.0431gb208.com/sjszlfa/1790.html