实时警报通知:微信告警通知的重要性解析
881
2023-02-04
本文目录一览:
统一监控平台,说到底本质上也是一个监控系统,监控的基本能力是必不可少的,回归到监控的本质,先梳理下整个监控体系:
① 监控系统的本质是通过发现故障、解决故障、预防故障来为了保障业务的稳定。
② 监控体系一般来说包括数据采集、数据检测、告警管理、故障管理、视图管理和监控管理6大模块。而数据采集、数据检测和告警处理是监控的最小闭环,但如果想要真正把监控系统做好,那故障管理闭环、视图管理、监控管理的模块也缺一不可。
一、数据采集
1、采集方式
数据采集方式一般分为Agent模式和非Agent模式;
Agent模式包括插件采集、脚本采集、日志采集、进程采集、APM探针等
非Agent模式包括通用协议采集、Web拨测、API接口等
2、数据类型
监控的数据类型有指标、日志、跟踪数据三种类型。
指标数据是数值型的监控项,主要是通过维度来做标识。
日志数据是字符型的数据,主要是从中找一些关键字信息来做监控。
跟踪型数据反馈的是跟踪链路一个数据流转的过程,观察过程中的耗时性能是否正常。
3、采集频率
采集频率分秒级、分钟级、随机三种类型。常用的采集频率为分钟级。
4、采集传输
采集传输可按传输发起分类,也可按传输链路分类。
按传输发起分类有主动采集Pull(拉)、被动接收Push(推)
按传输链路分类有直连模式、Proxy传输。
其中Proxy传输不仅能解决监控数据跨网传输的问题,还可以缓解监控节点数量过多导致出现的数据传输的瓶颈,用Proxy实现数据分流。
5、数据存储
对于监控系统来说,主要有以下三种存储供选择
① 关系型数据库
例如MySQL、MSSQL、DB2;典型监控系统代表:Zabbix、SCOM、Tivoli;
由于数据库本身的限制,很难搞定海量监控的场景,有性能瓶颈,只在传统监控系统常用
② 时序数据库
为监控这种场景设计的数据库,擅长于指标数据存储和计算;例如InfluxDB、OpenTSDB(基于Hbase)、Prometheus等;典型监控系统代表:TICK监控框架、 Open-falcon、Prometheus
③ 全文检索数据库
这类型数据库主要用于日志型存储,对数据检索非常友好,例如Elasticsearch。
二、数据检测
1. 数据加工
① 数据清洗
数据清洗比如日志数据的清洗,因为日志数据是非结构化的数据,信息密度较低,因此需要从中提取有用的数据。
② 数据计算
很多原始性能数据不能直接用来判断数据是否产生异常。比如采集的数据是磁盘总量和磁盘使用量,如果要检测磁盘使用率,就需要对现有指标进行一个简单的四则运算,才能得到磁盘使用率。
③ 数据丰富
数据丰富就是给数据打上一些tags标签,比如打上主机、机房的标签,方便进行聚合计算。
④ 指标派生
指标派生指的是通过已有的指标,通过计算得出新的指标。
2. 检测算法
有固定规则和机器学习算法。固定算法是较为常见的算法,静态阈值、同比环比、自定义规则,而机器学习主要有动态基线、毛刺检测、指标预测、多指标关联检测等算法。
无论是固定规则还是机器学习,都会有相应的判断规则,即常见的< =和and/or的组合判断等。
三、告警管理
1. 告警丰富
告警丰富是为了后续告警事件分析做准备,需要辅助信息去判断该怎么处理、分析和通知。
告警丰富一般是通过规则,联动CMDB、知识库、作业历史记录等数据源,实现告警字段、关联信息的丰富;通过人工打Tags也是一种丰富方式,不过实际场景下由于人工成本高导致难以落地。
2. 告警收敛
告警收敛有三种思路:抑制、屏蔽和聚合
① 抑制
即抑制同样的问题,避免重复告警。常见的抑制方案有防抖抑制、依赖抑制、时间抑制、组合条件抑制、高可用抑制等。
② 屏蔽
屏蔽可预知的情况,比如变更维护期、固定的周期任务这些已经知道会发生的事件,心里已经有预期。
③ 聚合
聚合是把类似或相同的告警进行合并,因为可能反馈的是同一个现象。比如业务访问量升高,那承载业务的主机的CPU、内存、磁盘IO、网络IO等各项性能都会飙升,这样把这些性能指标都聚合到一块,更加便于告警的分析处理。
3. 告警通知
① 通知到人
通过一些常规的通知渠道,能够触达到人。
这样在没有人盯屏的时候,可以通过微信、短信、邮件触发到工作人员。
② 通知到系统
一般通过API推送给第三方系统,便于进行后续的事件处理
另外还需要支持自定义渠道扩展(比如企业里有自己的IM系统,可以自行接入)
四、故障管理
告警事件必须要处理有闭环,否则监控是没有意义的。
最常见还是人工处理:值班、工单、故障升级等。
经验积累可以把人工处理的故障积累到知识库里面,用于后续故障处理的参考。
自动处理,通过提取一些特定告警的固化的处理流程,实现特定场景的故障自愈;比如磁盘空间告警时把一些无用日志清掉。
智能分析主要是通过故障的关联分析、定位、预测等AI算法,进一步提升故障定位和处理的效率;
1. 视图管理
视图管理也属于增值性功能,主要是满足人的心理述求,做到心中有底,面向的角色很多(领导、管理员、值班员等)。
大屏:面向领导,提供全局概览
拓扑:面向运维人员,提供告警关联关系和影响面视图
仪表盘:面向运维人员,提供自定义的关注指标的视图
报表:面向运维人员、领导,提供一些统计汇总报表信息,例如周报、日报等
检索:面向运维人员,用于故障分析场景下的各类数据检索
2. 监控管理
监控管理是企业监控落地过程中的最大挑战。前5个模块都是监控系统对外提供的服务功能,而监控管理才是面向监控系统自身的管理和控制,关注真正落地的过程的功能呈现。主要有以下几个方面:
配置:简单、批量、自动
覆盖率:监控水平的衡量指标
指标库:监控指标的规范
移动端:随时随地处理问题
权限:使用控制
审计:管理合规
API:运维数据最大的来源,用于数据消费
自监控:自身稳定的保障
为了实现上述监控六大基础能力模块,我们可以按如下架构设计我们的统一监控平台。
主要分三层,接入层,能力层,功能层。
接入层主要考虑各种数据的接入,除了本身Agent和插件的采集接入,还需要支持第三方监控源的数据接入,才能算一个完整的统一监控平台。
能力层主要考虑监控的基础通用能力,包含数据采集模块、数据存储模块、数据加工模块、数据检测模块、AI分析模块。
功能层需要贴近用户使用场景,主要有管理、展示两类功能,在建设的过程中可以不断丰富功能场景。
另外,考虑到数据的关联关系,为未来的数据分析打下基础,监控和CMDB也需要紧密联动,所有的监控对象都应该用CMDB进行管理,另外,还可以配置驱动监控为指导理念,实现监控的自动上下线,告警通知自动识别负责人等场景,简化监控的维护管理。
为了统一监控平台能够在企业更好的落地,我们需要配备对应的管理体系,其中最重要的是指标管理体系。
指标管理体系的核心理念:
监控的指标体系是以CMDB为骨架,以监控指标为经脉,将整个统一监控平台的数据有机整合起来。
贯穿指标的生命周期管理,辅以指标的管理规范,保障监控平台长久有序的运行。
从企业业务应用的视角出发,一般将企业监控的对象分为6层,也可以根据企业自己的情况进行调整:
基础设施层
硬件设备层
操作系统层
组件服务层
应用性能层
业务运营层
其实在一线运维工作中,常常是福不双至,故障不单行。每有运维问题发生的时候,往往会密集发生多个告警。当这些告警来袭的时候,一线运维人员要针对它的类型、等级、告警对象和内容等进行检查并选用合适的方法来应对。
告警等级较高时,比如持续出错的应用告警,在查验后会立即分派通知相关的负责人在第一时间开具事件工单,做对应的流程追踪;而遇到低等级或次要的系统告警,则可以暂缓处置,留作观察。
传统的处置方式需要用经验来判断问题的影响范围和严重性,再通过人工进行派单以及通知下游处理人员,这样效率低下,无法满足现今业务响应速度的要求了。
究其原因,有些周期性发生的高频问题,往往并不是最棘手的,是可以延后处置的。反而偶发的问题,比较需要特别关注(如果这是原始定级较高的故障,更应该第一时间关注)。
所以,在告警发生的时候,可以使用告警优先级推荐算法来分析处理问题。根据规律特征进行判别,看是否需要立即关注。再配合自动化工具,将推荐等级与原始等级都高的告警加上筛选规则,进行自动化开单处置。发现推荐等级与原始等级有背离的部分,可以筛选出来做复盘,对告警原始的等级进行优化,或者转化成升降级的规则逻辑来处置告警等级。
1、电话报修流程:
最传统的报修流程,由企业员工直接通过电话打给信息中心的值班人员,告知基本的故障原因,由值班人员填写报修工单(包括故障发生时间、物理位置、IP地址、故障原因等),填写完毕提交后,Apex OSSWorks将根据故障类型自动将此工单派发到相应运维组(如网络设备组、服务器组、数据库组、应用系统组等)的一线运维技术员。
一线运维技术员可选择电话支持或者是上门服务的方式与用户沟通解决,如仍然无法解决该故障,将进行工单升级转派,由技术水平更高一级的专家(或者信息中心主任)来解决。最终故障解决完后将解决方案保存到运维知识库中,并进行用户回访满意度调查。
2、Apex网管系统报修流程:
该流程主要是处理严重的网络故障或设备硬件故障,Apex网管系统通过智能阈值技术监测所有网络设备及服务器的性能状态,而一旦出现负载过大、性能低下、链路中断或者设备宕机的故障,将由Apex网管系统自身生成一个报修工单,并根据故障原因类型自动派发给相应运维组的一线运维技术员。
由Apex OSSWorks自动派发后,后面故障处理流程同1,最终也要形成运维知识库,不过不用进行用户回访了。
3、自助运维服务台报修流程:
该流程为最理想最具效率的故障报修流程。在此流程报修之前,用户或企业员工会先登陆到Apex 自助运维服务台去进行相关网络的自查,包括端口链路检查、参考自助FAQ等等,这样将会屏蔽掉决大多数的用户故障。
而碰到棘手的问题,通过自助服务台也无法解决的故障,用户可以填写报修单进行故障申告,Apex OSSWorks运维平台将根据故障类型自动派发给相应运维组的一线运维技术员。
由Apex OSSWorks运维平台自动派发后,后面故障处理流程同1,最终也要形成运维知识库,并且用户也可以在自助运维服务台里看到自己申请工单的处理进度,问题解决后还需要填写满意度调查。
用几页PPT来大概说一下吧
什么是数字化运维?
数字化运维的发展路径
数字化的服务平台
数字化运维价值
部分内容来源于北宙咨询刘颋总,如有侵权,可联系删除
业务系统运行状况及可用性可视化
IT运维部门核心价值是保障业务系统的正常运行,而支撑业务系统的IT环境又非常复杂,涉及人力、网络、服务器、IDC、机柜、各类应用等等资源。任何一个环节出现问题,都将“牵一发而动全身”。可见,IT系统资源监控与管理非常重要。
因此,我们需要将影响应用系统稳定运行的几个要素数据可视化。比如:基础设施资源使用情况;应用性能指标及系统整体运行情况,如这个系统是否可用、整体健康度等。总体来说,可以用到的常用可视化手段有数据统计、拟物化关系、流程关系、各种图表展现以及3D动画技术等。
网络/硬件/存储/虚拟化等基础资源的可视化
IT基础资源监控涉及的范围很广,通过各种数据统计、图表组合的方式,可将各种设备的性能、容量瓶颈、故障隐患等信息统一呈现。
网络以及业务系统的可视化
网络以及业务系统的可视化,一般采用拟物化关系视图来自动发现真实设备和链路,并生成直观的物理拓扑图、地图拓扑关系图、业务关系视图等。通过这些拓扑图,可以直观查看网络设备、链路之间的关系,以及业务系统设备运行状况、设备组件资源之间的业务链接等 。同时, 不同的故障告警级别,将以不同的颜色第一时间显示在拓扑视图的关联设备和所属地域上。
网络管理物理拓扑可视化
网络管理地图拓扑可视化
业务服务拓扑透视
全物理环境的机房可视化
基于三维实时互动引擎技术的3D机房可视化,可以满足全仿真式机房运维需要,层次化递进浏览监控企业区域、园区数据中心、机房、机柜、设备、端口,想看哪里点哪里,省时省力。
运维服务流程管理的可视化
以事件处理流程为例,可以采用流程关系视图,将事件预警、故障发现、受理、应急恢复的整个过程清晰地可视化展现,以直观查看流程进度。另外,比较复杂的服务流程的考核,可以通过可视化的架构视图理清思路,也可以利用各类报表视图来综合评估。
服务流程可视化
流程考核可视化
运维自动化及运维大数据可视化
智能化运维时代,自动化管理工具对运维的帮助越来越大。关于运维自动化,我们不能忽略的一点是,它对可视化的需求与生俱来。很多自动化操作场景,如果没有可视化呈现,你都没法想象自动化该如何工作!
另外,运维大数据技术涉及的关联挖掘、周期预测、行为学习、规律分析等分析行为,也可以通过各式各样的可视化手段来实现。
运维大数据可视化
最后不难看出,运维管理中监控、流程、自动化、运维大数据这几个重要环节都少不了可视化的呈现,而IT服务其实是一个IT资源、流程、团队管理等不断整合优化的过程,最终都是一个统一的服务体系。想象一下,在运维可视化大屏前体验”一览无遗,把控全局“的感觉吧!
(1)建立自动化运维管理平台
IT运维自动化管理建设的第一步是要先建立IT运维的自动化监控和管理平台。通过监控工具实现对用户操作规范的约束和对IT资源进行实时监控,包括服务器、数据库、中间件、存储备份、网络、安全、机房、业务应用和客户端等内容,通过自动监控管理平台实现故障或问题综合处理和集中管理。例如,在自定义周期内进行自动触发完成对IT运维的例行巡检,形成检查报告。包括自动运行维护,以完成对系统补丁的同步分发与升级、数据备份、病毒查杀等工作。
(2)建立故障事件自动触发流程,提高故障处理效率
所有IT设备在遇到问题时要会自动报警,无论是系统自动报警还是使用人员报的故障,应以红色标识显示在运维屏幕上。然后IT运维人员只需要按照相关知识库的数据,一步一步操作就可以。因此,企业需要事先建立自动工单式流程管理,当设备或软件发生异常或超出预警指标时会触发相关的事件,同时触发相关工单处理流程给相关IT运维人员。IT运维人员必须在指定时间内完成流程所规定的环节与工作,以提高IT运维响应问题的效率。
(3)建立规范的事件跟踪流程,强化运维执行力度
IT运维自动化管理建设时,首先需要建立故障和事件处理跟踪流程,利用表格工具等记录故障及其处理情况,以建立运维日志,并定期回顾从中辨识和发现问题的线索和根源。事实上许多实践也证明,建立每种事件的规范化处理和跟踪指南,可以减少IT运维操作的随意性和强化运维的执行力度,在很大程度上可降低故障发生的概率。同时,用户还应可以通过自助服务台、电话服务台等随时追踪该故障请求的处理状态。
(4)设立IT运维关键流程,引入优先处理原则
设立IT运维关键流程,引入优先处理原则是指要求CIO定义出IT运维的每个关键流程,不仅仅是定义流程是什么,还包括要指出每个关键流程对企业有什么影响和意义。同时,在设置自动化流程时还需要引入优先处理原则,例行的事按常规处理,特别事件要按优先级次序处理,也就是把事件细分为例行事件和例外关键事件。
总之,实现IT运维的自动化管理是指通过将IT运维中日常的、大量的重复性工作自动化,把过去的手工执行转为自动化操作。自动化是IT运维工作的升华,IT运维自动化不单纯是一个维护过程,更是一个管理的提升过程,是IT运维的最高层次,也是未来的发展趋势。
发表评论
暂时没有评论,来抢沙发吧~