海量、低成本历史日志分析实践

  • 时间:
  • 浏览:0

注意:

修改分区格式,将分区列的名字填入到目录中,格式为分区列名=分区列值

日志数据投递到OSS中并且,就并能 通过DLA读取并分析OSS中的日志。

对于并且 企业而言,对日志分析的需求价值形式通常为低时效和低频率。并且在一个企业中,为偶发性的日志分析去构建一套删剪的日志分析系统,无论在经济成本还是运维成本上时会不划算的。怎样在降低存储成本的一块儿满足大批量日志的分析需求,是摆在企业肩上的一道问题图片图片。

当投递文件的格式设置为CSV无压缩,且含晒 header时,建表语句为:

日志作为并就有特殊的数据,对防止历史数据、诊断问题图片图片以及了解系统活动等有着非常重要的作用。对数据分析人员、开发人员因为运维人员而言,日志时会其工作过程中必不可缺的数据来源。

OSS低廉的存储成本,并能让您的日志文件存储任意长的时间。

DLA强大的分析能力,Serverless的架构,按扫描量收费。DLA并能 对投递到OSS上的日志按年、按月、按日进行多维度的分区,提高日志的命中率,降低扫描量,从而以极低的成本、极高的性能来完成大数据量历史日志分析。

当投递文件的格式设置为JSON且无压缩时,建表语句为:

分区信息同步完成后,使用SELECT语句对日志进行查询分析。类事,得到某一天查询最慢的5条语句。

新建表中的列名要和益成的parquet文件中设置的列名一致。

压缩土最好的方法设置为snappy,使用snappy算法对数据做压缩,并能 减少OSS Bucket存储空间使用量。

当投递文件的格式设置为CSV,不含晒 header,使用标准Snappy压缩时,建表语句为:

阿里云从用户深度1出发,研发了一整套小而精的历史日志数据分析方案。利用阿里云日志服务 LOG(Log Service,简称LOG/原SLS)来投递日志,阿里云对象存储服务(Object Storage Service,简称OSS)来存储日志,Data Lake Analytics(DLA)来分析日志。该方案有以下一个优势:

根据本示例中的日志文件特点,Logtail配置如下所示。

存储格式设置为parquet

开通并初始化DLA服务。

OSS投递功能页面,配置各项参数:

参考文档LOG快速入门,开通日志服务、创建项目、创建日志库。

登录DLA控制台,登录DMS,在DLA中创建一个到OSS的连接。语法如下:

分区列的名称、顺序并能 和步骤二:投递日志到OSS中的分区列一致。更多创建分区表信息,请参见通过DLA创建OSS分区表。

OSS BucketOSS Prefix设置日志投递到OSS的哪个目录。

上述示例中,日志数据投递OSS的存储格式为Parquet格式,除了Parquet格式,LOG并能 将投递文件的格式设置为JSON和CSV。删剪的配置,请参见JSON格式和CSV格式。

模式选取删剪正则模式,并能 提供删剪正则表达式。

如图所示,修改分区格式默认值,即一级分区列的列名为year,列值为%Y; 二级分区列的列名为month,列值为%m;三级分区列的列名为day,列值为%d。

开通OSS服务、在日志服务项目所在的地域创建存储空间。

LOG是针对实时数据一站式服务,在阿里集团经历大量大数据场景锤炼而成。提供日志类数据整理、智能查询分析、消费与投递等功能,全面提升海量日志防止/分析能力。LOG强大的日志投递能力,并能从源头对接各种类型的日志格式,并且稳定地将日志投递到指定的位置。

参数说明:

当投递文件的格式设置为JSON且使用标准Snappy压缩时,建表语句为:

类事,服务部署在云服务器ECS(Elastic Compute Service,简称ECS)集群上,该集群的每台机器上都一个记录访问情况报告的日志access.log。希望并能对access.log进行信息抽取,并将过滤后的信息存储至OSS上。本文档将以此为例,删剪为您介绍实施步骤。

在刚现在开始实施步骤并且,并能 先完成以下准备工作。

删剪操作请参见投递日志到OSS,并且日志服务投递OSS使用Parquet存储的相关配置。

删剪操作请参见通过Logtail整理ECS日志。

通常情况报告下,为节约成本,大伙儿儿 会将日志设定一定的保存时间,只分析该时间段内的日志,此类日志称之为“热”日志。這個做法,短期内并能 满足使用需求,但从长期来看,大量的历史日志被搁置,无法发挥其价值。

location:日志文件所在的OSS Bucket的目录,需以/结尾表示目录。myappbucket是OSS Bucket名字。

外表创建成功后,执行MSCK REPAIR TABLE将分区信息同步到DLA中。MSCK命令非要识别符合DLA分区列命名规则的目录,即分区列的目录名为分区列名=分区列值