概览
输入
原生插件
| 名称 | 提供方 | 简介 |
|---|---|---|
input_file文本日志 | SLS 官方 | 文本采集。 |
input_container_stdio容器标准输出 | SLS 官方 | 从容器标准输出/标准错误流中采集日志。 |
input_ebpf_file_securityeBPF 文件安全数据 | SLS 官方 | eBPF 文件安全数据采集。 |
input_ebpf_network_observereBPF 网络可观测数据 | SLS 官方 | eBPF 网络可观测数据采集。 |
input_ebpf_network_securityeBPF 网络安全数据 | SLS 官方 | eBPF 网络安全数据采集。 |
input_ebpf_process_securityeBPF 进程安全数据 | SLS 官方 | eBPF 进程安全数据采集。 |
input_internal_metrics自监控指标数据 | SLS 官方 | 导出自监控指标数据。 |
input_internal_alarms自监控告警数据 | SLS 官方 | 导出自监控告警数据。 |
扩展插件
| 名称 | 提供方 | 简介 |
|---|---|---|
input_command脚本执行数据 | 社区 didachuxing | 采集脚本执行数据。 |
input_docker_stdout容器标准输出 | SLS 官方 | 从容器标准输出/标准错误流中采集日志。 |
metric_debug_file文本日志(debug) | SLS 官方 | 用于调试的读取文件内容的插件。 |
metric_input_exampleMetricInput 示例插件 | SLS 官方 | MetricInput 示例插件。 |
metric_meta_host主机 Meta 数据 | SLS 官方 | 主机 Meta 数据。 |
metric_mockMock 数据-Metric | SLS 官方 | 生成 metric 模拟数据的插件。 |
metric_system_v2主机监控数据 | SLS 官方 | 主机监控数据。 |
service_canalMySQL Binlog | SLS 官方 | 将 MySQL Binlog 输入到 iLogtail。 |
service_go_profileGO Profile | SLS 官方 | 采集 Golang pprof 性能数据。 |
service_gpu_metricGPU 数据 | SLS 官方 | 支持收集英伟达 GPU 指标。 |
service_http_serverHTTP 数据 | SLS 官方 | 接收来自 unix socket、http/https、tcp 的请求,并支持 sls 协议、otlp 等多种协议。 |
service_input_exampleServiceInput 示例插件 | SLS 官方 | ServiceInput 示例插件。 |
service_journalJournal 数据 | SLS 官方 | 从原始的二进制文件中采集 Linux 系统的 Journal(systemd)日志。 |
service_kafkaKafka | SLS 官方 | 将 Kafka 数据输入到 iLogtail。 |
service_mockMock 数据-Service | SLS 官方 | 生成 service 模拟数据的插件。 |
service_mssqlSqlServer 查询数据 | SLS 官方 | 将 Sql Server 数据输入到 iLogtail。 |
service_otlpOTLP 数据 | 社区 Zhu Shunjia | 通过 http/grpc 协议,接收 OTLP 数据。 |
service_pgsqlPostgreSQL 查询数据 | SLS 官方 | 将 PostgresSQL 数据输入到 iLogtail。 |
service_snmp收集 SNMP 协议机器信息 | SLS 官方 | 收集 SNMP 协议机器信息. |
service_syslogSyslog 数据 | SLS 官方 | 采集 syslog 数据。 |
处理
SPL 处理
| 名称 | 提供方 | 简介 |
|---|---|---|
processor_splSPL 处理 | SLS 官方 | 通过 SPL 语言解析数据 |
原生插件
| 名称 | 提供方 | 简介 |
|---|---|---|
processor_parse_regex_native正则解析原生处理插件 | SLS 官方 | 通过正则匹配解析事件指定字段内容并提取新字段。 |
processor_parse_json_nativeJson 解析原生处理插件 | SLS 官方 | 解析事件中 Json 格式字段内容并提取新字段。 |
processor_parse_delimiter_native分隔符解析原生处理插件 | SLS 官方 | 解析事件中分隔符格式字段内容并提取新字段。 |
processor_parse_timestamp_native时间解析原生处理插件 | SLS 官方 | 解析事件中记录时间的字段,并将结果置为事件的 __time__ 字段。 |
processor_filter_regex_native过滤原生处理插件 | SLS 官方 | 根据事件字段内容来过滤事件。 |
processor_desensitize_native脱敏原生处理插件 | SLS 官方 | 对事件指定字段内容进行脱敏。 |
扩展插件
| 名称 | 提供方 | 简介 |
|---|---|---|
processor_add_fields添加字段 | SLS 官方 | 添加字段。 |
processor_appender追加字段 | SLS 官方 | 追加字段。 |
processor_cloud_meta添加云资产信息 | SLS 官方 | 为日志增加云平台元数据信息。 |
processor_default原始数据 | SLS 官方 | 不对数据任何操作,只是简单的数据透传。 |
processor_desensitize数据脱敏 | SLS 官方 Takuka0311 | 对敏感数据进行脱敏处理。 |
processor_dict_map字段值映射处理 | SLS 官方 | 对指定字段的值查表映射. |
processor_drop丢弃字段 | SLS 官方 | 丢弃字段。 |
processor_encrypt字段加密 | SLS 官方 | 加密字段 |
processor_fields_with_conditions条件字段处理 | 社区 pj1987111 | 根据日志部分字段的取值,动态进行字段扩展或删除。 |
processor_filter_regex日志过滤 | SLS 官方 | 通过正则匹配过滤日志。 |
processor_gotime时间提取(Go 时间格式) | SLS 官方 | 以 Go 语言时间格式解析原始日志中的时间字段。 |
processor_grokGrok | SLS 官方 Takuka0311 | 通过 Grok 语法对数据进行处理 |
processor_jsonJson | SLS 官方 | 实现对 Json 格式日志的解析。 |
processor_log_to_sls_metric日志转 sls metric | SLS 官方 | 将日志转 sls metric |
processor_packjson字段打包 | SLS 官方 | 可添加指定的字段(支持多个)以 JSON 格式打包成单个字段。 |
processor_rate_limit日志限速 | SLS 官方 | 用于对日志进行限速处理,确保在设定的时间窗口内,具有相同索引值的日志条目的数量不超过预定的速率限制。 |
processor_regex正则 | SLS 官方 | 通过正则匹配的模式实现文本日志的字段提取。 |
processor_rename重命名字段 | SLS 官方 | 重命名字段。 |
processor_split_char分隔符 | SLS 官方 | 通过单字符的分隔符提取字段。 |
processor_split_string分隔符 | SLS 官方 | 通过多字符的分隔符提取字段。 |
processor_split_key_value键值对 | SLS 官方 | 通过切分键值对的方式提取字段。 |
processor_split_log_regex多行切分 | SLS 官方 | 实现多行日志(例如 Java 程序日志)的采集。 |
processor_string_replace字符串替换 | SLS 官方 pj1987111 | 通过全文匹配、正则匹配、去转义字符等方式对文本日志进行内容替换。 |
processor_strptime时间提取(strptime 格式) | SLS 官方 | 从指定字段中提取日志时间,时间格式为 Linux strptime。 |
聚合
| 名称 | 提供方 | 简介 |
|---|---|---|
aggregator_base基础聚合 | SLS 官方 | 对单条日志进行聚合 |
aggregator_context上下文聚合 | SLS 官方 | 根据日志来源对单条日志进行聚合 |
aggregator_content_value_group按 Key 聚合 | 社区 snakorse | 按照指定的 Key 对采集到的数据进行分组聚合 |
aggregator_metadata_groupGroupMetadata 聚合 | 社区 urnotsally | 按照指定的 Metadata Keys 对采集到的数据进行重新分组聚合 |
输出
原生插件
| 名称 | 提供方 | 简介 |
|---|---|---|
flusher_slsSLS | SLS 官方 | 将采集到的数据输出到 SLS。 |
flusher_file本地文件 | SLS 官方 | 将采集到的数据写到本地文件。 |
flusher_blackhole原生 Flusher 测试 | SLS 官方 | 直接丢弃采集的事件,属于原生输出插件,主要用于测试。 |
扩展插件
| 名称 | 提供方 | 简介 |
|---|---|---|
flusher_kafkaKafka | 社区 | 将采集到的数据输出到 Kafka。推荐使用下面的 flusher_kafka_v2 |
flusher_kafka_v2Kafka V2 | 社区 shalousun | 将采集到的数据输出到 Kafka。 |
flusher_stdout标准输出/文件 | SLS 官方 | 将采集到的数据输出到标准输出或文件。 |
flusher_otlp_logOTLP 日志 | 社区 liuhaoyang | 将采集到的数据支持Opentelemetry log protocol的后端。 |
flusher_httpHTTP | 社区 snakorse | 将采集到的数据以 http 方式输出到指定的后端。 |
flusher_pulsarPulsar | 社区 shalousun | 将采集到的数据输出到 Pulsar。 |
flusher_clickhouseClickHouse | 社区 kl7sn | 将采集到的数据输出到 ClickHouse。 |
flusher_elasticsearchElasticSearch | 社区 joeCarf | 将采集到的数据输出到 ElasticSearch。 |
flusher_lokiLoki | 社区 abingcbc | 将采集到的数据输出到 Loki。 |
flusher_prometheusPrometheus | 社区 | 将采集到的数据,经过处理后,通过 http 格式发送到指定的 Prometheus RemoteWrite 地址。 |
扩展
-
ClientAuthenticator
名称 提供方 简介 ext_basicauth
Basic 认证社区
snakorse为 http_flusher 插件提供 basic 认证能力 -
FlushInterceptor
名称 提供方 简介 ext_groupinfo_filter
GroupInfo 过滤社区
snakorse为 http_flusher 插件提供根据 GroupInfo 筛选最终提交数据的能力 -
RequestInterceptor
名称 提供方 简介 ext_request_breaker
请求熔断器社区
snakorse为 http_flusher 插件提供请求熔断能力 -
Decoder
名称 提供方 简介 ext_default_decoder
默认的 decoder 扩展社区
snakorse将内置支持的 Format 以 Decoder 扩展的形式封装 -
Encoder
名称 提供方 简介 ext_default_encoder
默认的 encoder 扩展社区
yuanshuai.1900将内置支持的 Format 以 Encoder 扩展的形式封装