部分AI陪聊APP现软色情乱象 “未成年人模式”这道防护墙不能失守

部分AI陪聊APP现软色情乱象 “未成年人模式”这道防护墙不能失守
2026年03月20日 13:14 红网

转自:人民日报

当前,有些AI陪聊APP将霸总、腹黑、毒舌等低俗人设作为吸粉利器,充斥“爱上嫂子”“第三者插足”等不良情节和肢体挑逗、言语暧昧的软色情内容,对青少年造成负面影响。这应引起高度警惕。青少年时期是三观塑造、心智成熟的关键阶段。未成年人长期接触软色情内容,会扭曲对亲密关系、性别尊重、道德底线的认知,误以为暴力、暧昧、越界是“浪漫”,形成错误的价值观。同时,AI“秒回消息”“无批判倾听”的特性,极易让部分渴望陪伴与理解的青少年产生情感依赖,导致现实社交能力逐渐退化,诱发情绪焦虑等心理问题。此前AI陪聊诱导未成年人自残甚至自杀的极端个案,早已敲响了警钟。

不可否认,AI陪聊能为一些学业压力重、亲子沟通不畅的青少年提供情绪出口,中国青少年研究中心一份调研报告显示,参与调查的近半数学生说“心里有烦恼只想去问AI”,恰恰说明这一情感需求真实存在。然而,以软色情为内核的不良交互,对未成年人身心具有极强的毒害与腐蚀性,必须坚决抵制。我们反对的不是AI陪聊本身,而是躲在技术背后的软色情乱象。唯有厘清乱象根源、斩断不良链条,才能让AI陪聊回归“情绪树洞”的本位,真正护航青少年成长。令人担忧的是,本该筑牢防护墙的未成年人模式,在部分平台形同虚设,无需实名验证、一键即可跳过,删除“未成年”关键词后,AI便立刻“失忆”,继续输出擦边内容。乱象背后,绝非偶然的技术偏差,而是平台责任失守、监管规则滞后、家庭引导缺位等多重因素交织。对心智未熟的未成年人不应过度苛责,而应从平台、监管、家庭等多方发力,织密未成年人网络保护网。平台必须扛起主体责任。严格落实实名认证,用人脸识别、身份证核验强制区分用户年龄,让未成年人无法“一键跳过”;用技术治理技术,搭建敏感词实时监测、对话内容智能审核系统,强化AI模型的价值观对齐,对涉黄、涉暴、涉极端情绪的内容即时拦截,从源头阻断不良信息生成,让技术成为保护青少年的盾牌。监管部门要细化红线、前置治理,跟上技术迭代的步伐。加快完善AI互动服务监管法规,明确软色情认定标准,将性暗示、性挑逗等内容纳入严厉规制范围;强化事前审核与常态化巡查,对违规平台从严约谈、处罚、下架;推动AI产品分类分级管理,明确不适宜未成年人的服务范畴,实现技术与规制的同步升级。技术向善,是AI发展必须坚守的底线。AI陪聊本该营造温暖的数字陪伴氛围,而不是制造毒害青少年的软色情陷阱。唯有疏堵结合,才能彻底清除AI陪聊中的软色情毒瘤,守护孩子们在清朗网络空间中健康前行。

来源:人民日报

编辑:廖轩仪

海量资讯、精准解读,尽在新浪财经APP
未成年人

VIP课程推荐

加载中...

APP专享直播

1/10

热门推荐

收起
新浪财经公众号
新浪财经公众号

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)

股市直播

  • 图文直播间
  • 视频直播间

7X24小时

  • 03-27 红板科技 603459 --
  • 03-23 隆源股份 920055 24.7
  • 03-20 泰金新能 688813 26.28
  • 03-20 盛龙股份 001257 7.82
  • 03-20 慧谷新材 301683 78.38
  • 新浪首页 语音播报 相关新闻 返回顶部