安全评估报告提交流程
安全评估使用手册.doc
(3.18 MB, 下载次数: 1391)
安全评估报告内容参考
1.安全管理负责人、信息审核人员及安全管理机构设立情况团队设有专门的安全管理负责人负责对团队成员进行网络安全教育和培训,从产品和技术上保证App的安全性。 团队中有专门负责后台管理和审核的人员,可以及时发现违规内容,并处理各种举报内容。 团队安全管理负责人和信息审核人员共同组成了安全管理机构,承担起App的安全管理责任。 2.用户真实身份核验及注册信息留存措施为了保证用户身份的真实性,用户注册时必须绑定真实手机号,进行短信验证。 注册信息包括用户的昵称,密码,性别,头像,这些信息都会保存在服务器。 3.对用户账号、操作时间、操作类型、网络源地址和目标地址、网络源端口、客户端硬件特征等日志信息,以及用户发布信息记录的留存措施用户在进行评论和发布信息时,会记录用户进行的操作,操作的时间,当前的经纬度,网络状态,设备的MAC地址,IP,端口,设备号,设备名称和App版本。用户的评论和发布的信息会保存到服务器中进行留存。 4.对用户账号和通讯群组名称、昵称、简介、备注、标识,信息发布、转发、评论和通讯群组等服务功能中违法有害信息的防范处置和有关记录保存措施系统会对账号昵称群组名称中包含的敏感词进行检查,包含敏感词的昵称和群组名称无法通过审核。通讯群组在创建/修改信息时还会进行人工审核,对群组的群名称,群头像,群介绍等进行审核,审核通过后群才能创建/修改成功。针对群组内发布有害信息的人员,群主可以将其踢出群组,后台管理人员也可以在后台操作,将这个用户踢出群组。后台管理人员还可以在后台直接解散群组。群聊天的记录会在服务器进行同步。 5.个人信息保护以及防范违法有害信息传播扩散、社会动员功能失控风险的技术措施针对个人信息保护,应用内提供隐私设置功能,限制他人对用户自身信息的查看权限。 针对有害信息和社会动员功能失控风险,应用内首先对这些信息发布做了限制,禁止包含敏感词内容发布,不包含敏感词的内容通过后台审核后才可以发布成功。发布成功后,如果发现还有违规内容,普通用户可以进行举报,后台管理员可以对内容进行删除并留存。后台管理员还可以对违规用户进行禁言,限制违规用户发布内容及评论。对于有严重违规行为的用户,可以直接封号处理 6.建立投诉、举报制度,公布投诉、举报方式等信息,及时受理并处理有关投诉和举报的情况应用内设有举报机制,支持举报用户,发布内容,评论,群组等。举报时会上传举报的内容,发布内容的用户,举报理由和图片附件等信息。在后台,管理员可以查看举报的具体信息,可以删除违规内容,对用户进行禁言操作。 7.建立为监管部门和执法部门依法履职提供技术、数据支持和协助的工作机制的情况。在后台管理系统中提供了网警查询资料管理功能,并支持导出数据。包含的数据有:发布者信息、发布内容来源、地理位置、IP、MAC地址、手机型号、终端信息等。
|