阿里云Logstash支持100余款系统默认插件,包含开源和自研Logstash插件,能够提升集群在数据传输和处理、日志调试等各方面的能力。本文介绍阿里云Logstash支持的系统默认插件。
阿里云Logstash仅支持系统默认插件,不支持自定义插件。系统默认插件为阿里云Logstash预置的插件,您可以根据需求卸载或安装。具体操作,请参见安装或卸载插件。阿里云Logstash实例资源属于客户,请勿进行违法操作。
阿里云Logstash支持的插件如下:
自研插件
类别
名称
说明
介绍
input
logstash-input-maxcompute
从阿里云大数据计算服务MaxCompute读取数据。
logstash-input-oss
从阿里云对象存储服务OSS读取数据。
logstash-input-sls
从阿里云日志服务SLS读取日志。
output
logstash-output-file_extend
直接在控制台上查看管道配置的输出结果。
logstash-output-oss
批量传输数据至阿里云对象存储服务OSS。
开源插件
类别
名称
说明
介绍
input
logstash-input-azure_event_hubs
使用Azure事件中心中的事件。
logstash-input-beats
从Elastic Beats框架中接收事件。
logstash-input-dead_letter_queue
从Logstash的死信队列中读取事件。
logstash-input-elasticsearch
从Elasticsearch集群中读取数据。
logstash-input-exec
定期运行Shell命令,将Shell命令的全部输出作为事件捕获。
logstash-input-ganglia
通过用户数据协议UDP(User Datagram Protocol)从网络读取Ganglia包。
logstash-input-gelf
在网络上将GELF格式信息作为事件读取。
logstash-input-generator
生成随机日志事件。
logstash-input-graphite
从Graphite工具读取指标。
logstash-input-heartbeat
生成心跳消息。
logstash-input-http
通过HTTP或HTTPS接收单行或多行事件。
logstash-input-http_poller
调用HTTP API,将输出解码为事件,并发送事件。
logstash-input-imap
从IMAP服务器读取邮件。
logstash-input-jdbc
通过JDBC界面,将任一数据库数据读取到Logstash中。
logstash-input-kafka
从Kafka主题读取事件。
logstash-input-pipe
从长时间运行的管道命令中流式读取事件。
logstash-input-rabbitmq
从RabbitMQ队列中读取事件。
logstash-input-redis
从Redis实例中读取事件。
logstash-input-s3
从S3 Bucket中的文件流式读取事件。
logstash-input-snmp
使用简单网络管理协议(SNMP)轮询网络设备,获取当前设备操作状态信息。
logstash-input-snmptrap
将SNMP trap消息作为事件读取。
logstash-input-sqs
从Amazon Web Services简单队列服务(Simple Queue Service,SQS)队列中读取事件。
logstash-input-stdin
从标准输入读取事件。
logstash-input-syslog
在网络上将syslog消息作为事件读取。
logstash-input-tcp
通过TCP套接字读取事件。
logstash-input-twitter
从Twitter Streaming API接收事件。
logstash-input-udp
在网络上通过UDP,将消息作为事件读取。
logstash-input-unix
通过UNIX套接字读取事件。
output
logstash-output-elasticsearch
向Elasticsearch集群写入数据。
logstash-output-kafka
向Kafka主题写入事件。
logstash-output-lumberjack
使用lumberjack协议发送事件。
logstash-output-nagios
通过Nagios命令文件,向Nagios发送被动检查结果。
logstash-output-pagerduty
根据预先配置的服务和升级政策发送通知。
logstash-output-pipe
将事件输送到另一个程序的标准输入。
logstash-output-rabbitmq
将事件推送到RabbitMQ exchange。
logstash-output-redis
使用RPUSH命令将事件发送到Redis队列。
logstash-output-s3
向亚马逊简单存储服务(Amazon Simple Storage Service, Amazon S3)批量上传Logstash事件。
logstash-output-sns
向采用托管pub/sub框架的亚马逊简单通知服务(Amazon Simple Notification Service)发送事件。
logstash-output-sqs
将事件推送到Amazon Web Services(AWS)SQS队列。
logstash-output-stdout
将事件打印到运行Shell命令的Logstash标准输出。
logstash-output-tcp
通过TCP套接字写入事件。
logstash-output-udp
通过UDP发送事件。
logstash-output-webhdfs
通过webhdfs REST API向HDFS中的文件发送Logstash事件。
logstash-output-cloudwatch
聚合并发送指标数据到AWS CloudWatch。
logstash-output-csv
以逗号分隔(CSV)或其他分隔的格式,将事件写入磁盘。基于文件输出共享配置值。内部使用Ruby CSV库。
logstash-output-elastic_app_search
向Elastic App Search解决方案发送事件。
logstash-output-email
收到输出后发送电子邮件。 您也可以使用条件来包含,或者排除电子邮件输出执行。
logstash-output-file
向磁盘文件写入事件。您可以将事件中的字段作为文件名和/或路径的一部分。
logstash-output-graphite
从日志中读取指标数据,并将它们发送到Graphite工具。Graphite是一个用于存储和绘制指标的开源工具。
logstash-output-http
向通用HTTP或HTTPS端点发送事件。
filter
logstash-filter-aggregate
聚合单个任务下多个事件(通常为日志记录)的信息,并将聚合信息推送到最后的任务事件。
logstash-filter-anonymize
将字段值替换为一致性哈希值,以实现字段匿名化。
logstash-filter-cidr
根据网络块列表检查事件中的IP地址。
logstash-filter-prune
基于黑名单或白名单的字段列表来精简事件数据。
logstash-filter-clone
检查重复事件。将为克隆列表中的每个类型创建克隆。
logstash-filter-csv
解析包含CSV数据的事件字段,并将其作为单独字段存储(名字也可指定)。 该过滤器还可以解析带有任何分隔符(不只是逗号)的数据。
logstash-filter-date
解析字段中的日期,然后使用该日期或时间戳作为事件的logstash时间戳。
logstash-filter-de_dot
将点(.)字符替换为其他分隔符,以重命名字段。 在实际应用中,该过滤器的代价较大。它必须将源字段内容拷贝到新目的字段,该新字段的名字中不再包含点(.),然后移除相应源字段。
logstash-filter-dissect
Dissect过滤器是一种拆分操作。
logstash-filter-dns
对reverse阵列下的各个或指定记录执行DNS查找(A记录或CNAME记录查找,或PTR记录的反向查找)。
logstash-filter-drop
删除满足此过滤器的所有事件。
logstash-filter-elasticsearch
搜索Elasticsearch中的过往日志事件,并将其部分字段复制到当前事件。
logstash-filter-fingerprint
创建一个或多个字段的一致性哈希值(指纹),并将结果存储在新字段。
logstash-filter-geoip
根据Maxmind GeoLite2数据库的数据添加关于IP地址的地理位置信息。
logstash-filter-grok
解析任意非结构化文本并将其结构化。
logstash-filter-http
整合外部网络服务或多个REST API。
logstash-filter-jdbc_static
使用预先从远程数据库加载的数据丰富事件。
logstash-filter-jdbc_streaming
执行SQL查询,并将结果集存储到目标字段。 将结果缓存到具有有效期的本地最近最少使用(LRU)缓存。
logstash-filter-json
JSON解析过滤器,将包含JSON的已有字段扩展为Logstash事件中的实际数据结构。
logstash-filter-kv
自动解析各种foo=bar消息(或特定事件字段)。
logstash-filter-memcached
将外部数据整合到Memcached。
logstash-filter-metrics
聚合指标。
logstash-filter-mutate
在字段上执行转变。您可以重命名、删除、更换并修改您事件中的字段。
logstash-filter-ruby
执行Ruby代码。 该过滤器接受内联Ruby代码或文件。 这两个方案互斥,在工作方式方面略有不同。
logstash-filter-sleep
按照指定的休眠时间长度休眠。 在休眠时间内,Logstash将停止。这有助于限流。
logstash-filter-split
通过分解事件的一个字段,并将产生的每个值嵌入原始事件的克隆版,从而克隆事件。 被分解的字段可以是字符串或字符串数组。
logstash-filter-syslog_pri
解析Syslog(RFC3164)消息前部的PRI字段。 如果没有设置优先级,它会默认为13(每个请求注解)。
logstash-filter-throttle
限制事件的数量。
logstash-filter-translate
一款普通搜索和替换工具,基于配置的哈希和/或文件决定替换值。
logstash-filter-truncate
截断超过一定长度的字段。
logstash-filter-urldecode
解码URL编码字段。
logstash-filter-useragent
基于BrowserScope数据,将用户代理字符串解析为结构化数据。
logstash-filter-xml
XML过滤器。将包含XML的字段,扩展为实际数据结构。
codec
logstash-codec-cef
根据《实施 ArcSight 通用事件格式》第二十次修订版(2013 年 6 月 5 日),使用Logstash编解码器处理ArcSight通用事件格式(CEF)。
logstash-codec-collectd
在网络上通过UDP从collectd二进制协议中读取事件。
logstash-codec-dots
该编解码器生成一个点(.),代表它处理的一个事件。
logstash-codec-edn
读取并产生EDN格式数据。
logstash-codec-edn_lines
读取并产生以新行分隔的EDN格式数据。
logstash-codec-es_bulk
将Elasticsearch bulk格式解码到单独的事件中,并将元数据解码到[@metadata](/metadata)字段。
logstash-codec-fluent
处理fluentd msgpack模式。
logstash-codec-graphite
编码并解码Graphite格式的行。
logstash-codec-json
解码(通过输入)和编码(通过输出)完整的JSON消息。
logstash-codec-json_lines
解码以新行分隔的JSON流。
logstash-codec-line
读取面向行的文本数据。
logstash-codec-msgpack
读取并产生MessagePack编码内容。
logstash-codec-multiline
将多行消息合并到单个事件中。
logstash-codec-netflow
解码Netflow v5、v9和v10(IPFIX)数据。
logstash-codec-plain
处理事件之间没有分隔的明文。
logstash-codec-rubydebug
使用Ruby Awesome Print库输出Logstash事件数据。