导读:最早是“信息安全风险评估”,随着信息安全领域的细化,衍生出“数据安全风险评估”。.共同目标是保护数据的CIA安全三要素,国标《信息安全技术 信息安全风险评估实施指南》中风险评估的流程同样适用于数据安全的风险评估。.保密性(Confidentiality):确保信息只能被授权的人或
最早是“信息安全风险评估”,随着信息安全领域的细化,衍生出“数据安全风险评估”。
共同目标是保护数据的CIA安全三要素,国标《信息安全技术 信息安全风险评估实施指南》中风险评估的流程同样适用于数据安全的风险评估。
保密性(Confidentiality):确保信息只能被授权的人或实体访问和查看,防止未经授权的人或实体获取敏感信息。
完整性(Integrity):确保信息在传输或存储过程中不被篡改或损坏,保证信息的准确性和完整性。
可用性(Availability):确保信息在需要时能够访问和使用,防止服务中断、拒绝服务等情况发生,保证信息的连续性和可用性。
以下是对于数据安全风险思路框架的梳理,以保证如何能做到不重不漏、更加全面的评估安全风险。
生命的周期的角度包含了被评估对象的全生命周期流程,安全领域最早听说这个词(“全生命周期”)应该是从SDLC(Software Development Life Cycle,软件开发生命周期)。近年来随着数据安全的火爆,DSMM(数据安全能力成熟度模型)成为度量企业数据安全水位的参考,该标准从三个不同的方向维度(数据安全过程维度、数据安全能力维度、能力成熟度等级维度)定义了不同成熟度等级(一级、二级、三级、四级、五级)应该分别满足怎样的安全要求。基于DSMM理念,生命周期成为数据安全治理中较为能想到的一个思路。
采集前是否有授权: 如,C端隐私政策是否同意、是否有签署数据处理协议 (从第三方采集)
明确采集范围: 数据的频率和量级应遵循最小必要原则
采集环境安全: Web端环境是否存在安全薄弱点、App端采集完成后是否需删除用户信息、人员访问权限是否合理等;
采集的传输存储过程风险 :认证授权、链路加密、接口鉴权、数据加密
Referer:爬虫安全风险
传输数据的保密性和完整性、数据加密和通道加密:
计算、展示
共享、委派、出境
1)前置的合规性问题
2)传输交换安全
3)导入导出安全
数据安全策略、组织和人员、合规管理、元数据、数据资产管理、供应链管理、安全应急
5A:
身份认证(Authentication):用户主体是谁?
授权(Authorization):授予某些用户主体允许或拒绝访问客体的权限。
访问控制(Access Control):控制措施以及是否放行的执行者。
可审计(Auditable):形成可供追溯的操作日志。
资产保护(Asset Protection):资产的保密性、完整性、可用性保障。
网络通信协议逐层 和 5A理论的评估矩阵:
有时在评估具体的业务场景,大而全的框架不好用时,从业务流程节点 和 5A 的角度来思考。例如,业务场景中接口间传输和处理数据,将整个流程中数据从A到B到C…如何请求和返回 画出完整的数据流转图、区分出不同的处理阶段,从业务阶段 和 5A 两个维度分别对应评估点。
在Hadoop生态集群中,组件众多,除组件自身的安全漏洞、开源组件风险,5A方法论也同样适用:
安全认证
Hadoop集群内最初是默认信任、不需要身份验证和授权的,任何用户都可以伪装成为其他合法用户,访问其在HDFS上的数据,获取MapReduce产生的结果,从而存在恶意攻击者假冒身份,篡改HDFS上他人的数据,提交恶意作业破坏系统、修改节点服务器的状态等隐患。
权限控制
用户只要得知数据块的 Block ID 后,可以不经过 NameNode 的身份认证和服务授权,直接访问相应 DataNode,读取 DataNode
节点上的数据或者将文件写入 DataNode 节点。
关键行为审计
默认hadoop缺乏审计机制。
资产保护——静态加密、动态加密
默认情况下Hadoop 在对集群HDFS
系统上的文件没有存储保护,所有数据均是明文存储在HDFS中,超级管理员可以不经过用户允许直接查看和修改用户在云端保存的文件,这就很容易造成数据泄露。
默认情况下Hadoop集群各节点之间,客户端与服务器之间数据明文传输,使得用户隐私数据、系统敏感信息极易在传输的过程被窃取。
满足相关法律法规的要求,输出合规清单,依据不同法律效力层级的制度要求,和内部的制度要求进行映射,梳理出内部需要遵从的合规项。
Referer :https://dsre.jd.army/#/
从生命周期、安全三要素、5A、风险类似 几个维度共同定义
上一篇:jenkins+linux+gi
下一篇:在idea/webstorm等t