有没有人试图将log4j日志文件直接写入 Hadoop分布式文件系统?
如果是,请回复如何实现这一目标.我想我必须为它创建一个Appender.
这是这样的吗?我的必要性是以特定的间隔将日志写入文件,并在稍后阶段查询该数据.
我建议使用Apache Flume来完成这项任务.Log4j有Flume appender.这样,您将日志发送到Flume,并写入HDFS.这种方法的好处是Flume成为与HDFS的单点通信.Flume可以轻松添加新数据源,而无需一次又一次地编写一堆代码与HDFS交互.