- 如果是同步日志,那么每次产生日志信息时,就需要将这条日志信息完全写入磁盘后才会执行后续程序。而磁盘 IO 是比较耗时的操作,如果有大批量的日志信息需要写入就会阻塞网络库的工作。
- 如果是异步日志,那么写日志消息只需要将日志的信息先进行存储,当累计到一定量或者经过一定时间时再将这些日志信息批量写入磁盘。而这个写入过程靠后台线程去执行,不会影响处理事件的其他线程。
经过对比可以得到,异步日志的方式对性能更加友好,而且可以减少磁盘 IO 函数的操作,一次写入更多的数据,提高效率。
muduo 日志消息的组成:时间戳、线程ID、日志级别、日志正文、源文件名、行号(下面的例子省略了线程 TID)。
2022/11/30 00:57:016530 INFO EventLoop start looping - EventLoop.cc:70
muduo 日志库由前端和后端组成。
- 前端主要包括:Logger、LogStream、FixedBuffer、SourceFile。
- 后端主要包括:AsyncLogging、LogFile、AppendFile。
Logger 类为用户提供使用日志库的接口,其内部有一个 Impl(实现类)具体实现功能。Logger 内部定义了日志的等级。muduo 的默认日志等级是 INFO。
enum LogLevel
{
TRACE = 0,
DEBUG,
INFO,
WARN,
ERROR,
FATAL,
NUM_LOG_LEVELS
};
- TRACE:指出比 DEBUG 粒度更细的一些信息事件(开发过程中使用)
- DEBUG:指出细粒度信息事件对调试应用程序是非常有帮助的(开发过程中使用)
- INFO:表明消息在粗粒度级别上突出强调应用程序的运行过程。
- WARN:系统能正常运行,但可能会出现潜在错误的情形。
- ERROR:指出虽然发生错误事件,但仍然不影响系统的继续运行。
- FATAL:指出每个严重的错误事件将会导致应用程序的退出。
调用日志库 针对不同的日志等级,muduo 设置了一系列宏函数来调用。 其内部可以判断当前设置的日志等级来拦截日志输出。
#define LOG_TRACE if (muduo::Logger::logLevel() <= muduo::Logger::TRACE) \
muduo::Logger(__FILE__, __LINE__, muduo::Logger::TRACE, __func__).stream()
#define LOG_DEBUG if (muduo::Logger::logLevel() <= muduo::Logger::DEBUG) \
muduo::Logger(__FILE__, __LINE__, muduo::Logger::DEBUG, __func__).stream()
#define LOG_INFO if (muduo::Logger::logLevel() <= muduo::Logger::INFO) \
muduo::Logger(__FILE__, __LINE__).stream()
#define LOG_WARN muduo::Logger(__FILE__, __LINE__, muduo::Logger::WARN).stream()
#define LOG_ERROR muduo::Logger(__FILE__, __LINE__, muduo::Logger::ERROR).stream()
#define LOG_FATAL muduo::Logger(__FILE__, __LINE__, muduo::Logger::FATAL).stream()
#define LOG_SYSERR muduo::Logger(__FILE__, __LINE__, false).stream()
#define LOG_SYSFATAL muduo::Logger(__FILE__, __LINE__, true).stream()
观察宏函数,会发现每个宏定义都会构造出一个 Logger 的临时对象,然后输出相关信息。在 Logger::Impl 的构造函数中会初始化时间戳、线程ID、日志等级这类固定信息,而正文消息靠 LogStream 重载实现。在 Logger 临时对象销毁时,会调用 Logger 的析构函数,其内部会将日志信息输出到指定位置。 而 Logger 的实现文件中定义了两个全局函数指针,其执行的函数会确定日志信息的输出位置。
Logger::OutputFunc g_output = defaultOutput; // 默认输出到终端上
Logger::FlushFunc g_flush = defaultFlush; // 默认刷新标准输出流
以下是 defaultOutput 和 defaultFlush 的实现。
// 默认输出到终端
void defaultOutput(const char* msg, int len)
{
size_t n = fwrite(msg, 1, len, stdout);
//FIXME check n
(void)n;
}
// 默认刷新到终端
void defaultFlush()
{
fflush(stdout);
}
相应的,如果我们将该函数实现为输出到某个磁盘文件上,那么就可以实现后端日志写入磁盘,这也是 muduo 日志接口部分的巧妙设计。muduo 定义了 setOutput 和 setFlush 两个函数来设置全局函指针
typedef void (*OutputFunc)(const char* msg, int len);
typedef void (*FlushFunc)();
void Logger::setOutput(OutputFunc out)
{
g_output = out;
}
void Logger::setFlush(FlushFunc flush)
{
g_flush = flush;
}
之前谈到了实现异步日志需要先将前端消息储存起来,然后到达一定数量或者一定时间再将这些信息写入磁盘。而 muduo 使用 FixedBuffer 类来实现这个存放日志信息的缓冲区。FixedBuffer 的实现在 LogStream.h 文件中。 针对不同的缓冲区,muduo 设置了两个固定容量。
const int kSmallBuffer = 4000; // 4KB
const int kLargeBuffer = 4000*1000; // 4MB
LogStream 类用于重载正文信息,一次信息大小是有限的,其使用的缓冲区的大小就是 kSmallBuffer。而后端日志 AsyncLogging 需要存储大量日志信息,其会使用的缓冲区大小更大,所以是 kLargeBuffer。
template<int SIZE>
class FixedBuffer : noncopyable
{
public:
FixedBuffer()
: cur_(data_)
{
setCookie(cookieStart);
}
~FixedBuffer()
{
setCookie(cookieEnd);
}
// 向缓冲区添加数据
void append(const char* /*restrict*/ buf, size_t len)
{
// FIXME: append partially
if (implicit_cast<size_t>(avail()) > len)
{
// 将buf地址,长为len的数据拷贝到cur_地址处
memcpy(cur_, buf, len);
cur_ += len;
}
}
const char* data() const { return data_; }
int length() const { return static_cast<int>(cur_ - data_); }
// write to data_ directly
char* current() { return cur_; }
int avail() const { return static_cast<int>(end() - cur_); }
void add(size_t len) { cur_ += len; }
void reset() { cur_ = data_; }
void bzero() { memZero(data_, sizeof data_); }
// for used by GDB
const char* debugString();
void setCookie(void (*cookie)()) { cookie_ = cookie; }
// for used by unit test
string toString() const { return string(data_, length()); }
StringPiece toStringPiece() const { return StringPiece(data_, length()); }
private:
const char* end() const { return data_ + sizeof data_; }
// Must be outline function for cookies.
static void cookieStart();
static void cookieEnd();
void (*cookie_)();
char data_[SIZE];
char* cur_;
};
LogStream 重载了一系列 operator<< 操作符,将不同格式数据转化为字符串,并存入 LogStream::buffer_。
{
typedef LogStream self;
public:
...
self& operator<<(bool v)
self& operator<<(short);
self& operator<<(unsigned short);
self& operator<<(int);
self& operator<<(unsigned int);
self& operator<<(long);
self& operator<<(unsigned long);
self& operator<<(long long);
self& operator<<(unsigned long long);
self& operator<<(const void*);
self& operator<<(float v);
self& operator<<(double);
self& operator<<(char v);
self& operator<<(const char* str);
self& operator<<(const unsigned char* str);
self& operator<<(const string& v);
self& operator<<(const StringPiece& v);
self& operator<<(const Buffer& v);
...
}
现在开始讲解 muduo 日志库的后端设计了。前端主要实现异步日志中的日志功能,为用户提供将日志内容转换为字符串,封装为一条完整的 log 消息存放到 FixedBuffer 中;而实现异步,核心是通过专门的后端线程,与前端线程并发运行,将 FixedBuffer 中的大量日志消息写到磁盘上。
- AsyncLogging 提供后端线程,定时将 log 缓冲写到磁盘,维护缓冲及缓冲队列。
- LogFile 提供日志文件滚动功能,写文件功能。
- AppendFile 封装了OS 提供的基础的写文件功能。
class AsyncLogging : noncopyable
{
public:
AsyncLogging;
~AsyncLogging();
void append(const char* logline, int len); // 前端调用此函数加入日志信息
void start();
void stop();
private:
void threadFunc();
// FixedBuffer缓冲区类型,而这个缓冲区大小由kLargeBuffer指定,大小为4M,因此,Buffer就是大小为4M的缓冲区类型。
typedef muduo::detail::FixedBuffer<muduo::detail::kLargeBuffer> Buffer;
typedef std::vector<std::unique_ptr<Buffer>> BufferVector;
typedef BufferVector::value_type BufferPtr;
const int flushInterval_; //前端缓冲区定期向后端写入的时间(冲刷间隔)
std::atomic<bool> running_; //标识线程函数是否正在运行
const string basename_;
const off_t rollSize_;
muduo::Thread thread_;
muduo::CountDownLatch latch_; // 条件变量,用于等待异步日志线程启动
muduo::MutexLock mutex_;
muduo::Condition cond_ GUARDED_BY(mutex_); //条件变量,主要用于前端缓冲区队列中没有数据时的休眠和唤醒
BufferPtr currentBuffer_ GUARDED_BY(mutex_); //当前缓冲区4M大小
/**
* 预备缓冲区,主要是在调用append向当前缓冲添加日志消息时,
* 如果当前缓冲放不下,当前缓冲就会被移动到前端缓冲队列终端,
* 此时预备缓冲区用来作为新的当前缓冲
*/
BufferPtr nextBuffer_ GUARDED_BY(mutex_);
BufferVector buffers_ GUARDED_BY(mutex_); //前端缓冲区队列
};
- BufferPtr currentBuffer_:当前使用的缓冲区,用于储存前端日志信息,如果不够则会使用预备缓冲区。
- BufferPtr nextBuffer_:预备缓冲区,用于储存前端日志信息,在第一个缓冲区不够时使用
- BufferVector buffers_:缓冲区数组,用于储存前端日志信息,过一段时间或者缓冲区已满,就会将 Buffer 加入到 BufferVector 中。后端线程负责将 BufferVector 里的内容写入磁盘。
AsyncLogging::append
之前说过 FixedBuffer 有不同的大小,而 4MB 的就被 AsyncLogging 所用。前端在生成一条日志消息的时候会调用 AsyncLogging::append,将日志信息加入到 AsyncLogging::Buffer 中。而前端会有不同的线程调用日志库,因此 append 操作需要加锁保证互斥。
muduo 采用双缓冲区实现异步日志,它设置了两个 FixedBuffer<kLargeBuffer> Buffer
来储存前端的日志信息。如果当前的缓冲区不够放下日志信息,它就会将此缓冲区加入到 Buffer 数组中(为后端使用)。然后将预备缓冲区 nextBuffer 作为新的缓冲区使用。
如果后 nextBuffer 也不够使用了,那么就会新分配一个缓冲区记录日志信息,不过这种情况极少发生。如果日志写的速度很快,但是 IO 函数速度很慢,那么前端日志缓冲区就会积累,就会产生这种情况
void AsyncLogging::append(const char* logline, int len)
{
muduo::MutexLockGuard lock(mutex_); //用锁来保持同步
if (currentBuffer_->avail() > len) //如果当前缓冲区还能放下当前日志消息
{
currentBuffer_->append(logline, len); //就把日志消息添加到当前缓冲区中
}
// 如果放不下,就把当前缓冲区移动到前端缓冲区队列中,然后用预备缓冲区来填充当前缓冲区
// 将当前缓冲区放到前端缓冲区队列中后就要唤醒后端处理线程
else
{
// 当前缓冲区直接进入buffer数组了,之后不使用它,于是可以使用移动函数
buffers_.push_back(std::move(currentBuffer_));
//如果预备缓冲区还未使用,就用来填充当前缓冲区
if (nextBuffer_)
{
currentBuffer_ = std::move(nextBuffer_);
}
/**
* 如果预备缓冲区无法使用,就重新分配一个新的缓冲区
*/
else
{
currentBuffer_.reset(new Buffer); // Rarely happens
}
// 向新的当前缓冲区中写入日志消息
currentBuffer_->append(logline, len);
cond_.notify();
}
}
后端线程会如何处理前端数组 后端线程负责将 BufferVector 里的每个 Buffer 数据写到磁盘上。后端线程会生成一个 Buffer 数组 buffersToWrite,用于和前端 Buffer 数组进行交换。其每隔一段时间 flushInterval_ 就会将前端数组的内容交换到后端数组中(使用 swap)函数。这样可以快速归还前端数组,这样新的写满的 Buffer 就可以继续加入到前端数组中。 除此之外,后端线程还会先预备两个 Buffer,用于跟前端的 currentBuffer 和 nextBuffer 进行交换。因为为了避免等待过久,currentBuffer 还没有被填满,后端线程会定时的打断这个过程。如果到达触发时间了,当前的 Buffer 还没有写完,那么仍然会将其加入到前端的 Buffer 数组中。因此,需要将 currentBuffer 与空的 Buffer 进行交换操作。
void AsyncLogging::threadFunc()
{
assert(running_ == true);
latch_.countDown();
LogFile output(basename_, rollSize_, false);
// 分配缓冲区并置空
BufferPtr newBuffer1(new Buffer);
BufferPtr newBuffer2(new Buffer);
newBuffer1->bzero();
newBuffer2->bzero();
// 缓冲区数组置为16个
BufferVector buffersToWrite;
buffersToWrite.reserve(16);
while (running_)
{
{
// 互斥锁保护
muduo::MutexLockGuard lock(mutex_);
// unusual usage!
// 如果前端缓冲区队列为空,就休眠 flushInterval_ 的时间
// 说明没有一个数组被写满
if (buffers_.empty()) // unusual usage!
{
cond_.waitForSeconds(flushInterval_);
}
// 将当前写满的buffer加入buffer数组
buffers_.push_back(std::move(currentBuffer_));
currentBuffer_ = std::move(newBuffer1);
// 前端缓冲区队列与后端缓冲区队列交换
// 使用交换的方式,更加高效
buffersToWrite.swap(buffers_);
// 如果预备缓冲区为空,那么就使用newBuffer2作为预备缓冲区,保证始终有一个空闲的缓冲区用于预备
if (!nextBuffer_)
{
nextBuffer_ = std::move(newBuffer2);
}
}
后端线程如何处理 buffersToWrite 首先会先判断交换得到的 buffersToWrite 数组的大小,如果其超过了 25 个,那么我们只会保留前两个 Buffer。一个 Buffer 是 4MB,25 个说明前端已经堆积了 100 MB 大小的日志信息。 假设磁盘的写速度 100MB/S,要堆积 100MB 有 2 种极端情况:
- 1S内产生200MB数据;
- 25秒内,平均每秒产生104MB数据;
不论哪种情况,都是要超过磁盘的处理速度。而实际应用中,只有产生数据速度不到磁盘写速度的 1/10,应用程序性能才不会受到明显影响。 紧接着,后端线程会遍历各个 Buffer,然后调用 output 将数据输出到指定位置。
LogFile output(basename_, rollSize_, false);
for (const auto& buffer : buffersToWrite)
{
// 写入日志文件
output.append(buffer->data(), buffer->length());
}
写入完成后,将 buffersToWrite 的大小 resize 成两个,并归还 nextBuffer。
void AsyncLogging::threadFunc()
{
// 如果最终后端缓冲区的缓冲区太多就只保留前两个
if (buffersToWrite.size() > 25)
{
char buf[256];
snprintf(buf, sizeof buf, "Dropped log messages at %s, %zd larger buffers\n",
Timestamp::now().toFormattedString().c_str(),
buffersToWrite.size()-2);
fputs(buf, stderr);
output.append(buf, static_cast<int>(strlen(buf)));
// 只保留两个
buffersToWrite.erase(buffersToWrite.begin()+2, buffersToWrite.end());
}
// 遍历将要输出到磁盘上的缓冲区
for (const auto& buffer : buffersToWrite)
{
// FIXME: use unbuffered stdio FILE ? or use ::writev ?
// 写入日志文件
output.append(buffer->data(), buffer->length());
}
// 大于两个后端缓冲区,则置为空格
if (buffersToWrite.size() > 2)
{
// drop non-bzero-ed buffers, avoid trashing
buffersToWrite.resize(2);
}
// 如果 newBuffer1 为空 (刚才用来替代当前缓冲了)
if (!newBuffer1)
{
assert(!buffersToWrite.empty());
// 把后端缓冲区的最后一个作为newBuffer1
newBuffer1 = std::move(buffersToWrite.back());
// 最后一个元素的拥有权已经转移到了newBuffer1中,因此弹出最后一个
buffersToWrite.pop_back();
// 重置newBuffer1为空闲状态(注意,这里调用的是Buffer类的reset函数而不是unique_ptr的reset函数)
newBuffer1->reset();
}
if (!newBuffer2)
{
assert(!buffersToWrite.empty());
newBuffer2 = std::move(buffersToWrite.back());
buffersToWrite.pop_back();
newBuffer2->reset();
}
buffersToWrite.clear(); // 清空后端缓冲区队列
output.flush(); //清空文件缓冲区
}
output.flush();
}
LogFile 主要职责:提供对日志文件的操作,包括滚动日志文件、将 log 数据写到当前 log 文件、flush log数据到当前 log 文件。 写日志文件操作 LogFile提供了2个接口,用于向当前日志文件file_写入数据。append本质上是通过append_unlocked完成对日志文件写操作,但多了线程安全。用户只需调用第一个接口即可,append会根据线程安全需求,自行判断是否需要加上;第二个是private接口。
void append(const char *logline, int len);
void append_unlocked(const char *logline, int len);
append_unlocked 会先将log消息写入file_文件,之后再判断是否需要滚动日志文件;如果不滚动,就根据append_unlocked的调用次数和时间,确保1)一个log文件超时(默认1天),就创建一个新的;2)flush文件操作,不会频繁执行(默认间隔3秒)。
void LogFile::append_unlocked(const char *logline, int len)
{
file_->append(logline, len);
if (file_->writtenBytes() > rollSize_)
{ // written bytes to file_ > roll threshold (rollSize_)
rollFile();
}
else
{
++count_;
if (count_ >= checkEveryN_)
{
count_ = 0;
time_t now = ::time(NULL);
time_t thisPeriod_ = now / kRollPerSeconds_ * kRollPerSeconds_;
if (thisPeriod_ != startOfPeriod_)
{ // new period, roll file for log
rollFile();
}
else if (now - lastFlush_ > flushInterval_)
{ // timeout ( flushInterval_ = 3 seconds)
lastFlush_ = now;
file_->flush();
}
}
}
}
滚动日志 当文件写入量超过一个大小,就会创建一个新的日志文件,向里面写入数据。
bool LogFile::rollFile()
{
time_t now = 0;
// 获取日志文件名字
string filename = getLogFileName(basename_, &now);
// 计算现在是第几天 now/kRollPerSeconds求出现在是第几天,再乘以秒数相当于是当前天数0点对应的秒数
time_t start = now / kRollPerSeconds_ * kRollPerSeconds_;
if (now > lastRoll_)
{
lastRoll_ = now;
lastFlush_ = now;
startOfPeriod_ = start;
// 让file_指向一个名为filename的文件,相当于新建了一个文件
file_.reset(new FileUtil::AppendFile(filename));
return true;
}
return false;
}
flush 日志文件 flush操作往往与write文件操作配套。LogFile::flush实际上是通过AppendFile::flush(),完成对日志文件的冲刷。与LogFile::append()类似,flush也能通过mutex_指针是否为空,自动选择线程安全版本,还是非线程安全版本。
void LogFile::flush()
{
if (mutex_)
{
MutexLockGuard lock(*mutex_);
file_->flush();
}
else
{
file_->flush();
}
}
AppendFile 在 FileUtil.cc 文件中被实现,其封装了 FILE 对文件操作的方法。以组合的形式被 LogFile 使用。
// not thread safe
class AppendFile : public noncopyable
{
public:
explicit AppendFile(StringArg filename);
~AppendFile();
void append(const char* logline, size_t len); // 添加log消息到文件末尾
void flush(); // 冲刷文件到磁盘
off_t writtenBytes() const { return writtenBytes_; } // 返回已写字节数
private:
size_t write(const char* logline, size_t len); // 写数据到文件
FILE* fp_; // 文件指针
char buffer_[ReadSmallFile::kBufferSize]; // 文件操作的缓冲区
off_t writtenBytes_; // 已写字节数
};
使用 RALL 手法,初始化即构造对象,析构则释放文件资源。setBuffer 可以设置系统默认的 IO 缓冲区为自己指定的用户缓冲区。大小为 64 KB。
FileUtil::AppendFile::AppendFile(StringArg filename)
: fp_(::fopen(filename.c_str(), "ae")), // 'e' for O_CLOEXEC
writtenBytes_(0)
{
assert(fp_);
::setbuffer(fp_, buffer_, sizeof buffer_);
// posix_fadvise POSIX_FADV_DONTNEED ?
}
FileUtil::AppendFile::~AppendFile()
{
::fclose(fp_);
}
AppendFile 有个两个接口:append 和 write。其中,append() 是供用户调用的 public 接口,确保将指定数据附加到文件末尾,实际的写文件操作是通过 write() 来完成的;write 通过非线程安全的 glibc 库函数fwrite_unlocked() 来完成写文件操作,而没有选择线程安全的 fwrite(),主要是出于性能考虑。
void FileUtil::AppendFile::append(const char* logline, const size_t len)
{
size_t written = 0; // 记录已经写入的数据大小
while (written != len)
{
size_t remain = len - written; // 还需写入的数据大小
size_t n = write(logline + written, remain);
if (n != remain)
{
int err = ferror(fp_);
if (err)
{
fprintf(stderr, "AppendFile::append() failed %s\n", strerror_tl(err));
break;
}
}
written += n; // 更新写入的数据大小
}
writtenBytes_ += written; // 记录目前为止写入的数据大小,超过限制会滚动日志
}
size_t FileUtil::AppendFile::write(const char* logline, size_t len)
{
// #undef fwrite_unlocked
return ::fwrite_unlocked(logline, 1, len, fp_);
}