net: add support for ->poll_mask in proto_ops
authorChristoph Hellwig <hch@lst.de>
Mon, 9 Apr 2018 13:25:28 +0000 (15:25 +0200)
committerChristoph Hellwig <hch@lst.de>
Sat, 26 May 2018 07:16:44 +0000 (09:16 +0200)
The socket file operations still implement ->poll until all protocols are
switched over.

Signed-off-by: Christoph Hellwig <hch@lst.de>
include/linux/net.h
net/socket.c

index 2248a052061d8aeb0ae08d233f181f09cba6384b..3fd9d8c165813361ae5bd4c3ab3c0b5cf220b0c7 100644 (file)
@@ -147,6 +147,7 @@ struct proto_ops {
        int             (*getname)   (struct socket *sock,
                                      struct sockaddr *addr,
                                      int peer);
+       __poll_t        (*poll_mask) (struct socket *sock, __poll_t events);
        __poll_t        (*poll)      (struct file *file, struct socket *sock,
                                      struct poll_table_struct *wait);
        int             (*ioctl)     (struct socket *sock, unsigned int cmd,
index 571ee4005192dd63c87bd070b94e4e399f720e1c..2d752e9eb3f9bbad6e3e4a7db3a380ee370edaf3 100644 (file)
@@ -117,8 +117,10 @@ static ssize_t sock_write_iter(struct kiocb *iocb, struct iov_iter *from);
 static int sock_mmap(struct file *file, struct vm_area_struct *vma);
 
 static int sock_close(struct inode *inode, struct file *file);
-static __poll_t sock_poll(struct file *file,
-                             struct poll_table_struct *wait);
+static struct wait_queue_head *sock_get_poll_head(struct file *file,
+               __poll_t events);
+static __poll_t sock_poll_mask(struct file *file, __poll_t);
+static __poll_t sock_poll(struct file *file, struct poll_table_struct *wait);
 static long sock_ioctl(struct file *file, unsigned int cmd, unsigned long arg);
 #ifdef CONFIG_COMPAT
 static long compat_sock_ioctl(struct file *file,
@@ -141,6 +143,8 @@ static const struct file_operations socket_file_ops = {
        .llseek =       no_llseek,
        .read_iter =    sock_read_iter,
        .write_iter =   sock_write_iter,
+       .get_poll_head = sock_get_poll_head,
+       .poll_mask =    sock_poll_mask,
        .poll =         sock_poll,
        .unlocked_ioctl = sock_ioctl,
 #ifdef CONFIG_COMPAT
@@ -1114,14 +1118,48 @@ out_release:
 }
 EXPORT_SYMBOL(sock_create_lite);
 
+static struct wait_queue_head *sock_get_poll_head(struct file *file,
+               __poll_t events)
+{
+       struct socket *sock = file->private_data;
+
+       if (!sock->ops->poll_mask)
+               return NULL;
+       sock_poll_busy_loop(sock, events);
+       return sk_sleep(sock->sk);
+}
+
+static __poll_t sock_poll_mask(struct file *file, __poll_t events)
+{
+       struct socket *sock = file->private_data;
+
+       /*
+        * We need to be sure we are in sync with the socket flags modification.
+        *
+        * This memory barrier is paired in the wq_has_sleeper.
+        */
+       smp_mb();
+
+       /* this socket can poll_ll so tell the system call */
+       return sock->ops->poll_mask(sock, events) |
+               (sk_can_busy_loop(sock->sk) ? POLL_BUSY_LOOP : 0);
+}
+
 /* No kernel lock held - perfect */
 static __poll_t sock_poll(struct file *file, poll_table *wait)
 {
        struct socket *sock = file->private_data;
-       __poll_t events = poll_requested_events(wait);
+       __poll_t events = poll_requested_events(wait), mask = 0;
 
-       sock_poll_busy_loop(sock, events);
-       return sock->ops->poll(file, sock, wait) | sock_poll_busy_flag(sock);
+       if (sock->ops->poll) {
+               sock_poll_busy_loop(sock, events);
+               mask = sock->ops->poll(file, sock, wait);
+       } else if (sock->ops->poll_mask) {
+               sock_poll_wait(file, sock_get_poll_head(file, events), wait);
+               mask = sock->ops->poll_mask(sock, events);
+       }
+
+       return mask | sock_poll_busy_flag(sock);
 }
 
 static int sock_mmap(struct file *file, struct vm_area_struct *vma)