年我国未成年网民规模为1.75亿,未成年人互联网普及率达93.1%。我国未成年人互联网使用已相当普及。互联网在为青少年提供便利、释放红利、赋能赋权的同时,也给青少年带来了潜在安全风险。
《青少年互联网平台参与风险研究报告》基于个采样案例,对涉事青少年身份背景进行数据画像。其中13周岁以下占比59.78%,男性青少年占比70.85%,是女性青少年的2.3倍。
青少年面临的四类主要网络风险:个人隐私泄露风险、不良信息接触风险、网络违法侵害风险、网络沉迷成瘾风险。
年10月,国家新闻出版署发布《关于防止未成年人沉迷网络游戏的通知》,从网络游戏账号实名注册制度、严格控制未成年人使用网络游戏时段市场、规范向未成年人提供付费服务等6方面举措进行监管。虽然在实施过程中,仍有不少漏洞存在,但目前AI人脸识别技术已经广泛应用,技术门槛和成本在逐渐降低,未来可以强制将人脸识别实人认证纳入游戏注册登录环节,建立防沉迷系统。各个游戏防沉迷系统兼容,防沉迷信息共享。
今年疫情期间,网课代替面授,几乎所有的青少年不可避免的在网上冲浪,海量信息多到爆炸,不良信息接触风险随之增加。很多家长发现网课平台会时不时出现游戏推荐或者低俗内容的弹窗,弹窗广告没有明显的关闭标志,弹窗的关闭按钮被制作成半透明状态,很难找到关闭键;还有些弹窗不能一键关闭,甚至有些弹窗页面有多个关闭按钮,点击其中一个关闭键后直接打开推广游戏、低俗的网站链接。
如何守住一片干净的学堂?
国家网信办将已查处及接到网友举报的APP进行依法约谈责令其限期整改外,部分学习平台已主动利用人工智能、大数据分析等技术监测并处理违规不良信息。
AI赋能信息审核:将人工智能技术引入到审核全流程,利用图像识别、OCR文本识别等技术,训练完成了用于青少年信息审核的特有模型,有效识别海量信息中的色情图片、优质图片、试题图片,以及图片中的文字、URL地址、推广信息等。
全量数据监测和预警:针对特定信息进行打标签预警,对用户发布不良信息的行为进行定位分析,形成恶意上传不良信息的黑名单机制。从平台角度,进一步监测不良信息来源,分析用户特征,并根据不同情况发出及时准确预警。
数据分析适当干预:大数据技术的基础上,进行可视化、类型化、个性化分析,对不良信息数据进行进一步的跟踪,将更多人文关怀、更多正向引导知识输出给孩子们,对不良信息的发布者进行干预。
青少年网络安全监管是一项复杂的系统工程,需要技术上的与时俱进,也需立法上的快步跟进。我们才能更好地保护青少年,保护国家和民族的未来。
预览时标签不可点收录于话题#个上一篇下一篇转载请注明:http://www.twoac.com/wyzd/9938.html