0 I/O多路复用机制
I/O多路复用 (I/O multiplexing),提供了同时监测若干个文件描述符是否可以执行IO操作的能力。select/poll/epoll
函数都提供了这样的机制,能够同时监控多个描述符,当某个描述符就绪(读或写就绪),则立刻通知相应程序进行读或写操作。本文将从内核源码(v5.2.14)入手,尝试简述poll/select
机制的实现原理。
1 poll/select
函数
介绍内核源码前,先来简单介绍poll/select
函数的调用方式。
1.1 select
函数
1
2
3
#include <poll.h>
int select (int maxfd, fd_set *readfds, fd_set *writefds, fd_set *exceptfds,
struct timeval *tvptr);
maxfd
:代表要监控的最大文件描述符fd+1
writefds
:监控可写的文件描述符fd
集合readfds
:监控可读的文件描述符fd
集合exceptfds
:监控异常事件的文件描述符fd
集合timeout
:超时时长
select
将监听的文件描述符分为三组,每一组监听不同的I/O操作。readfds/writefds/exceptfds
分别表示可写、可读、异常事件的文件描述符集合,这三个参数可以用NULL
来表示对应的事件不需要监听。对信号集合的操作可以利用如下几个函数完成:
1
2
3
4
void FD_CLR(int fd, fd_set *set);
int FD_ISSET(int fd, fd_set *set);
void FD_SET(int fd, fd_set *set);
void FD_ZERO(fd_set *set);
select
的调用会阻塞到有文件描述符可以进行IO操作或被信号打断或者超时才会返回。timeout
参数用来指定超时时间,含义如下:
NULL
: 表示不设置超时,调用会一直阻塞直到文件描述符上的事件触发0
: 表示不等待,立即返回,用于检测文件描述符状态- 正整数: 表示指定时间内没有事件触发,则超时返回
值得注意的是,select
调用返回时,每个文件描述符集合均会被过滤,只保留得到事件响应的文件描述符。在下一次调用select
时,描述符集合均需要重新设置。
1.2 poll
函数
1
2
3
4
5
6
7
8
#include <poll.h>
int poll (struct pollfd *fds, unsigned int nfds, int timeout);
struct pollfd {
int fd; /* file descriptor to check */
short events; /* events of interest on fd */
short revents; /* events that occured on fd */
};
poll
函数与select
不同,不需要为三种事件分别设置文件描述符集,而是构造了pollfd
结构的数组,每个数组元素指定一个描述符fd
以及对该描述符感兴趣的条件(events)。poll
调用返回时,每个描述符fd
上产生的事件均被保存在revents
成员内。
和select
类似,timeout
参数用来指定超时时间(ms)。
2 poll
函数机制
poll
和select
均属于系统调用的方式,先就poll
函数在Linux中实现的机制进行分析。
poll
和select
函数在内核源码中的定义均位于fs/select.c
文件中,poll
函数的原型定义如下:
1
SYSCALL_DEFINE3(poll, struct pollfd __user *, ufds, unsigned int, nfds, int, timeout_msecs)
首先,会调用poll_select_set_timeout
函数将超时时间转换为timespec64
结构变量,注意超时时间将会以当前时间(monotonic clock)为基础,转换为未来的一个超时时间点(绝对时间)。
1
2
3
4
5
6
struct timespec64 end_time, *to = NULL;
if (timeout_msecs >= 0) {
to = &end_time;
poll_select_set_timeout(to, timeout_msecs / MSEC_PER_SEC,
NSEC_PER_MSEC * (timeout_msecs % MSEC_PER_SEC));
}
2.1 do_sys_poll
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
static int do_sys_poll(struct pollfd __user *ufds, unsigned int nfds,
struct timespec64 *end_time)
{
struct poll_wqueues table;
int err = -EFAULT, fdcount, len, size;
/* 在栈上分配小段空间提高速度,通过`poll_list`链表保存所有的`pollfd` */
long stack_pps[POLL_STACK_ALLOC/sizeof(long)];
struct poll_list *const head = (struct poll_list *)stack_pps;
struct poll_list *walk = head;
unsigned long todo = nfds;
. . .
len = min_t(unsigned int, nfds, N_STACK_PPS);
for (;;) {
walk->next = NULL;
walk->len = len;
. . .
/* 1. 将pollfd从用户空间拷贝到内核空间 */
if (copy_from_user(walk->entries, ufds + nfds-todo, sizeof(struct pollfd) * walk->len))
goto out_fds;
todo -= walk->len;
if (!todo)
break;
len = min(todo, POLLFD_PER_PAGE);
size = sizeof(struct poll_list) + sizeof(struct pollfd) * len;
walk = walk->next = kmalloc(size, GFP_KERNEL);
. . .
}
poll_initwait(&table);
/* 2. 调用do_poll完成poll的实际调用处理 */
fdcount = do_poll(head, &table, end_time);
poll_freewait(&table);
/* 3. 将每个fd上产生的事件revents再从内核空间拷贝到用户空间 */
for (walk = head; walk; walk = walk->next) {
struct pollfd *fds = walk->entries;
. . .
for (j = 0; j < walk->len; j++, ufds++)
if (__put_user(fds[j].revents, &ufds->revents))
goto out_fds;
}
err = fdcount;
out_fds:
. . .
return err;
}
do_sys_poll
函数首先将pollfd
结构体数组从用户空间拷贝至内核空间,同时用名为poll_list
的链表存储(一部分存储在栈空间上,一部分存储在堆空间),形如:
poll_initwait(&table)
对poll_wqueues
结构体变量table
进行初始化:
1
2
3
4
5
6
7
8
9
10
11
12
13
struct poll_wqueues table = {
poll_table pt = {
._qproc = __pollwait;
._key = ~(__poll_t)0; /* all events enabled */
};
struct poll_table_page *table = NULL;
struct task_struct *polling_task = current;
int triggered = 0;
int error = 0;
int inline_index = 0;
struct poll_table_entry inline_entries[N_INLINE_POLL_ENTRIES];
};
函数指针table.pt._qproc
被初始化指向__pollwait
函数,这个和poll
调用过程中阻塞与唤醒机制相关,后面将介绍。
随后即调用do_poll
函数完成poll
操作,最后将每个文件描述符fd
产生的事件再拷贝到内核空间。
2.2 do_poll
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
static int do_poll(struct poll_list *list, struct poll_wqueues *wait,
struct timespec64 *end_time)
{
poll_table* pt = &wait->pt;
ktime_t expire, *to = NULL;
int timed_out = 0, count = 0;
u64 slack = 0;
__poll_t busy_flag = net_busy_loop_on() ? POLL_BUSY_LOOP : 0;
unsigned long busy_start = 0;
/* timeout设置为0时,将pt->_qproc设置为NULL,同时不阻塞,相当于退化为轮询操作 */
if (end_time && !end_time->tv_sec && !end_time->tv_nsec) {
pt->_qproc = NULL;
timed_out = 1;
}
/* 超时时间设置并有效的情况下,才设置slack */
if (end_time && !timed_out)
slack = select_estimate_accuracy(end_time);
for (;;) {
struct poll_list *walk;
bool can_busy_loop = false;
/* 对每一项pollfd进行遍历,调用do_pollfd */
for (walk = list; walk != NULL; walk = walk->next) {
struct pollfd * pfd, * pfd_end;
pfd = walk->entries;
pfd_end = pfd + walk->len;
for (; pfd != pfd_end; pfd++) {
/* do_pollfd返回非负值,表示发现事件触发,此时无需再将当前进程加入到相应的等待队列 */
if (do_pollfd(pfd, pt, &can_busy_loop, busy_flag)) {
count++;
pt->_qproc = NULL;
/* found something, stop busy polling */
busy_flag = 0;
can_busy_loop = false;
}
}
}
/* 当前进程已经在上述的遍历中被加入到各个fd对应驱动的等待队列,无需重复加入 */
pt->_qproc = NULL;
if (!count) {
count = wait->error;
/* 被信号中断,后面将返回 */
if (signal_pending(current))
count = -EINTR;
}
/* 发现事件触发,或者timed_out == 1 提前退出循环 */
if (count || timed_out)
break;
if (can_busy_loop && !need_resched()) {
if (!busy_start) {
busy_start = busy_loop_current_time();
continue;
}
if (!busy_loop_timeout(busy_start))
continue;
}
busy_flag = 0;
/* 超时时间end_time有效时,将timespec64格式的end_time转换为ktime_t格式 */
if (end_time && !to) {
expire = timespec64_to_ktime(*end_time);
to = &expire;
}
/* 进行poll进程的休眠工作,让出CPU
* 超时时间到达时返回,设置timed_out=1,在下一个轮询后返回上层调用
*/
if (!poll_schedule_timeout(wait, TASK_INTERRUPTIBLE, to, slack))
timed_out = 1;
}
return count;
}
do_poll
函数首先从头部到尾部遍历链表poll_list
,对每一项pollfd
调用do_pollfd
函数。do_pollfd
函数主要将当前poll
调用进程加入到每个pollfd
对应fd
所关联的底层驱动等待队列中,将在下文详细介绍这一点。
do_pollfd
调用后,如果某个fd
已经产生事件,那么后续遍历其他fd
时,无需再将当前进程加入到对应的等待队列中,poll
调用也将返回而不是睡眠(schedule)。
2.3 do_pollfd
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
static inline __poll_t do_pollfd(struct pollfd *pollfd, poll_table *pwait,
bool *can_busy_poll, __poll_t busy_flag)
{
int fd = pollfd->fd;
__poll_t mask = 0, filter;
struct fd f;
if (fd < 0)
goto out;
mask = EPOLLNVAL;
f = fdget(fd);
if (!f.file)
goto out;
/* userland u16 ->events contains POLL... bitmap */
filter = demangle_poll(pollfd->events) | EPOLLERR | EPOLLHUP;
pwait->_key = filter | busy_flag;
mask = vfs_poll(f.file, pwait);
if (mask & busy_flag)
*can_busy_poll = true;
mask &= filter; /* Mask out unneeded events. */
fdput(f);
out:
/* ... and so does ->revents */
pollfd->revents = mangle_poll(mask);
return mask;
}
do_pollfd
主要完成与底层vfs中的驱动程序f_op->poll
的调用,和对事件的过滤(只过滤出对每个文件描述符感兴趣的事件)。最后会把过滤出的事件放入revents
中,作为结果返回。
1
2
3
4
5
6
static inline __poll_t vfs_poll(struct file *file, struct poll_table_struct *pt)
{
if (unlikely(!file->f_op->poll))
return DEFAULT_POLLMASK;
return file->f_op->poll(file, pt);
}
vfs_poll
将调用file->f_op->poll
函数,而这个函数是在设备驱动程序中定义的。这里通过一个模拟的字符驱动globalfifo
程序中定义的xxx_poll
函数来分析调用过程。
globalfifo_poll
主要完成了如下几方面的工作:
- 锁定设备自定义的互斥量
- 调用
poll_wait
将poll进程加入到设备自定义的等待队列中,下文将详细介绍poll_wait
- 判断等待事件条件是否发生
- 对互斥量解锁
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
static unsigned int globalfifo_poll(struct file *flip,
struct poll_table_struct *poll_table)
{
struct globalfifo_dev *dev = flip->private_data;
unsigned int mask = 0;
mutex_lock(&dev->globalfifo_mutex);
/* Add poll_table to r_wait/w_wait queue of device driver
* then, device driver could wake up poll function of upper layer (do_poll)
*/
poll_wait(flip, &dev->r_wait, poll_table);
poll_wait(flip, &dev->w_wait, poll_table);
if (dev->current_len != 0) {
mask |= POLLIN | POLLRDNORM;
}
if (dev->current_len != GLOBALFIFO_SIZE) {
mask |= POLLOUT | POLLWRNORM;
}
mutex_unlock(&dev->globalfifo_mutex);
return mask;
}
2.4 poll_wait
1
2
3
4
5
void poll_wait(struct file * filp, wait_queue_head_t * wait_address, poll_table *p)
{
if (p && p->_qproc && wait_address)
p->_qproc(filp, wait_address, p);
}
poll_wait
进而调用到poll_table p->_qproc
,而后者在2.1节中通过poll_initwait(&table)
被初始化为__pollwait
。
1
2
3
4
5
6
7
8
9
10
11
12
13
static void __pollwait(struct file *filp, wait_queue_head_t *wait_address, poll_table *p)
{
struct poll_wqueues *pwq = container_of(p, struct poll_wqueues, pt);
struct poll_table_entry *entry = poll_get_entry(pwq);
if (!entry)
return;
entry->filp = get_file(filp);
entry->wait_address = wait_address;
entry->key = p->_key;
init_waitqueue_func_entry(&entry->wait, pollwake);
entry->wait.private = pwq;
add_wait_queue(wait_address, &entry->wait);
}
__pollwait
初始化等待队列项(关联到当前poll进程),最后将等待队列项加入到设备驱动中定义的等待队列中。关于等待队列的介绍,可以参考:Linux等待队列(Wait Queue)。
2.5 do_poll
continue
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
static int do_poll(struct poll_list *list, struct poll_wqueues *wait,
struct timespec64 *end_time)
{
. . .
for (;;) {
struct poll_list *walk;
bool can_busy_loop = false;
for (walk = list; walk != NULL; walk = walk->next) {
struct pollfd * pfd, * pfd_end;
pfd = walk->entries;
pfd_end = pfd + walk->len;
for (; pfd != pfd_end; pfd++) {
/* do_pollfd返回非负值,表示发现事件触发,此时无需再将当前进程加入到相应的等待队列 */
if (do_pollfd(pfd, pt, &can_busy_loop, busy_flag)) {
count++;
pt->_qproc = NULL;
/* found something, stop busy polling */
busy_flag = 0;
can_busy_loop = false;
}
}
}
/* 已经通过遍历处理完所有pollfd,无需再次进行等待队列的处理 */
pt->_qproc = NULL;
if (!count) {
count = wait->error;
/* 被信号中断,将直接返回 */
if (signal_pending(current))
count = -EINTR;
}
/* 发现事件触发,或者timed_out == 1 提前退出循环 */
if (count || timed_out)
break;
. . .
busy_flag = 0;
/* 超时时间end_time有效时,将timespec64格式的end_time转换为ktime_t格式 */
if (end_time && !to) {
expire = timespec64_to_ktime(*end_time);
to = &expire;
}
/* 进行poll进程的休眠工作,让出CPU
* 超时时间到达时返回,设置timed_out=1,在下一个轮询后返回上层调用
*/
if (!poll_schedule_timeout(wait, TASK_INTERRUPTIBLE, to, slack))
timed_out = 1;
}
return count;
}
前面几节介绍了do_poll
会依次遍历每一个pollfd
,调用do_pollfd
将当前poll
进程加入到文件描述符对应驱动的等待队列中,此过程中会判断等待条件是否已产生。如若任意一个fd
的事件event符合要求,对于后面的fd
不会把当前进程加入到等待队列中(pt->_qproc = NULL
)。这一轮将poll
进程都放进等待队列后,在下一个loop就不用重复存放。
存在(产生)下一个loop的条件:
(1) timeout超时条件发生, 在下一个loop会先判断是否有event满足,满足刚好能够作为结果被返回
(2) 等待队列被唤醒,在下一个loop对每个fd
进行判断,对相应文件描述符更新revents
do_poll
阻塞条件终止返回上层调用do_sys_poll
后,如2.1节所述,会依次遍历每一项pollfd
,将最终产生的事件revents
从内核空间拷贝到用户空间。
至此,poll
调用过程基本结束。
3 select
函数机制
select
函数和poll
函数的实现机制大体一致,同样存在用户空间到内核空间的拷贝过程,以及在等待队列上睡眠和唤醒的过程,关于select
调用的详细过程分析在此不赘述了。与poll
调用不同的一点是,select
调用对目标文件描述符的数量受到最大文件描述符max_fds
的限制,在如下compat_core_sys_select
函数中可以清晰得看到这点。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
static int compat_core_sys_select(int n, compat_ulong_t __user *inp,
compat_ulong_t __user *outp, compat_ulong_t __user *exp, struct timespec64 *end_time)
{
fd_set_bits fds;
void *bits;
int size, max_fds, ret = -EINVAL;
struct fdtable *fdt;
long stack_fds[SELECT_STACK_ALLOC/sizeof(long)];
if (n < 0)
goto out_nofds;
/* max_fds can increase, so grab it once to avoid race */
rcu_read_lock();
fdt = files_fdtable(current->files);
max_fds = fdt->max_fds;
rcu_read_unlock();
if (n > max_fds)
n = max_fds;
. . .
}
4 总结
前面几节内容,介绍了poll
和select
调用的使用方法,并利用源码重点分析了Linux内核poll
机制的实现原理。
poll
系统调用的整体过程可以概括为下图:
参考资料
[1] select/poll/epoll对比分析:(http://gityuan.com/2015/12/06/linux_epoll/)
[2] 源码解读poll/select内核机制:(http://gityuan.com/2019/01/05/linux-poll-select/)
[3] 一文看懂IO多路复用:(https://zhuanlan.zhihu.com/p/115220699)
[4] POLL机制:(https://www.cnblogs.com/liuqing520/p/12706187.html)