首页 > 实时讯息 >

今日观察 | 以“清朗”劲风狠刹AI滥用歪风

时间:2025-06-24 08:17:00

“清朗·整治AI技术滥用”专项行动自2025年4月启动以来,中央网信办聚焦AI换脸拟声侵犯公众权益、AI内容标识缺失误导公众等AI技术滥用乱象,深入推进第一阶段重点整治任务,部署各地网信部门加大违规AI产品处置力度,切断违规产品营销引流渠道,督促重点网站平台健全技术安全保障措施,推动生成合成内容标识加速落地。(6月23日《广州日报》)

《三体》作者刘慈欣曾这样形容科技高速发展给生活带来的巨变:“未来像盛夏的大雨,在我们还来不及撑开伞时,就扑面而来。”人工智能加速迭代、浪潮奔涌向前,带来前所未有的发展机遇,也带来不容忽视的风险挑战。“声音克隆”导致电信诈骗防不胜防,AI炮制虚假新闻撩拨网民情绪,“换脸视频”引发的造谣诽谤时有出现,“AI幻觉”让生成内容真假难辨……今天,AI技术滥用逐渐打开“潘多拉魔盒”,技术的“双刃剑”效应愈发具象化。

第一阶段累计处置违规小程序、应用程序、智能体等AI产品3500余款,清理违法违规信息96万余条,处置账号3700余个,各项工作取得积极进展……此次专项行动的阶段性成果,向AI技术滥用乱象打出了一记雷霆重拳,彰显我国在AI治理上的决心与执行力。但正如有报道所指出的,当前投入在AI安全研究与价值对齐方面的精力、时间、金钱和资源还远远不足,这也成为大模型落地行业的难题之一。如何确保安全、规范、合理地使用人工智能,这是摆在我们面前的深刻时代命题。

技术每前进一步,治理就要跟进一步。近年来,《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等相关法律法规密集出台,推动人工智能治理沿着法治轨道向前迈进。针对人工智能技术新特点,要始终坚持包容审慎态度,完善相关法律体系建设,不断创新、完善与之相适应的监管方式,让治理始终跟随技术发展的脚步前行。

从现实来看,人工智能算法具有“黑箱”特性,表现为行为不可控、决策机制难解释等,这也要求平台必须担负起主体责任,积极完善管理细节。比如,要健全完善审核识别机制,对AI生成内容第一时间添加明确标识,加大对涉及重大事件、敏感话题中图片、视频的真伪核查,及时甄别、拦截、处置不实信息和账号。同时,要建立便捷的举报和投诉渠道,对于网民反映的问题及时予以查证、处理。

发展的问题终归要靠发展来解决。以技术对技术,以技术管技术,才能真正筑牢安全的底线。抖音建立“红蓝对抗”机制,优化模型对虚假信息的识别能力;小红书在模型后置训练阶段输入专业领域数据,提升模型对医疗、金融、未成年人等重点领域问题的理解能力。这些都是切实可行的办法。善用“技防”手段,“以子之矛,攻子之盾”,安全防护才会更及时、更智能、更高效。

人工智能的未来将往何处去?答案只有一个,那便是“以人为本、智能向善”。在规范中筑牢防线,在创新中释放活力,这是技术服务于人、造福社会的必需,也是抓住产业变革新机遇、推动人工智能健康有序发展的必然。

文/广州日报新花城记者:付迎红

广州日报新花城编辑:张冬梅