根据《纽约时报》与反网络仇恨中心(CCDH)的最新数据分析,埃隆·马斯克旗下的AI聊天机器人Grok在短短九天内生成了至少180万张针对女性的性化图片,并被大量发布在X(原推特)平台上。
CCDH的报告指出,在Grok生成的约460万张图片样本中,竟然有65%(约300万张)包含对男性、女性或儿童的性暗示描绘。其中,约有2.3万张图片被识别为可能涉及儿童的性暗示内容。此次大规模滥用源于用户发现可以诱导Grok生成“脱衣照”或对真实人物的照片进行性化处理。

此事件已引起国际社会的高度警觉。在英国、美国、印度和马来西亚等国监管机构展开调查后,X平台被迫在上周扩大了对Grok生成功能的限制。尽管平台已采取行动,但AI生成内容的监管边界与社交媒体的审查责任依然是当前科技界争议的焦点。
© 版权声明
本网转发此文章,旨在为读者提供更多信息资讯,只用于分享,不做任何商业用途,版权归原作者所有。由于条件所限,在转载之前无法与所有权利人联系授权,可能出现部分原创图片或文字未署名,请联系添加。如有侵权,请联系删除处理。
相关文章
暂无评论...
