Lines Matching refs:vgpio

58 static int _virtio_gpio_req(struct virtio_gpio *vgpio, u16 type, u16 gpio,
61 struct virtio_gpio_line *line = &vgpio->lines[gpio];
65 struct device *dev = &vgpio->vdev->dev;
92 mutex_lock(&vgpio->lock);
93 ret = virtqueue_add_sgs(vgpio->request_vq, sgs, 1, 1, line, GFP_KERNEL);
96 mutex_unlock(&vgpio->lock);
100 virtqueue_kick(vgpio->request_vq);
101 mutex_unlock(&vgpio->lock);
126 static int virtio_gpio_req(struct virtio_gpio *vgpio, u16 type, u16 gpio,
129 struct virtio_gpio_line *line = &vgpio->lines[gpio];
132 return _virtio_gpio_req(vgpio, type, gpio, txvalue, rxvalue, res,
138 struct virtio_gpio *vgpio = gpiochip_get_data(gc);
140 virtio_gpio_req(vgpio, VIRTIO_GPIO_MSG_SET_DIRECTION, gpio,
146 struct virtio_gpio *vgpio = gpiochip_get_data(gc);
150 ret = virtio_gpio_req(vgpio, VIRTIO_GPIO_MSG_GET_DIRECTION, gpio, 0,
167 struct virtio_gpio *vgpio = gpiochip_get_data(gc);
169 return virtio_gpio_req(vgpio, VIRTIO_GPIO_MSG_SET_DIRECTION, gpio,
176 struct virtio_gpio *vgpio = gpiochip_get_data(gc);
179 ret = virtio_gpio_req(vgpio, VIRTIO_GPIO_MSG_SET_VALUE, gpio, value, NULL);
183 return virtio_gpio_req(vgpio, VIRTIO_GPIO_MSG_SET_DIRECTION, gpio,
189 struct virtio_gpio *vgpio = gpiochip_get_data(gc);
193 ret = virtio_gpio_req(vgpio, VIRTIO_GPIO_MSG_GET_VALUE, gpio, 0, &value);
199 struct virtio_gpio *vgpio = gpiochip_get_data(gc);
201 virtio_gpio_req(vgpio, VIRTIO_GPIO_MSG_SET_VALUE, gpio, value, NULL);
205 static void virtio_gpio_irq_prepare(struct virtio_gpio *vgpio, u16 gpio)
207 struct vgpio_irq_line *irq_line = &vgpio->irq_lines[gpio];
222 ret = virtqueue_add_sgs(vgpio->event_vq, sgs, 1, 1, irq_line, GFP_ATOMIC);
224 dev_err(&vgpio->vdev->dev, "failed to add request to eventq\n");
229 virtqueue_kick(vgpio->event_vq);
235 struct virtio_gpio *vgpio = gpiochip_get_data(gc);
236 struct vgpio_irq_line *irq_line = &vgpio->irq_lines[d->hwirq];
238 raw_spin_lock(&vgpio->eventq_lock);
242 raw_spin_unlock(&vgpio->eventq_lock);
250 struct virtio_gpio *vgpio = gpiochip_get_data(gc);
251 struct vgpio_irq_line *irq_line = &vgpio->irq_lines[d->hwirq];
253 raw_spin_lock(&vgpio->eventq_lock);
257 raw_spin_unlock(&vgpio->eventq_lock);
265 struct virtio_gpio *vgpio = gpiochip_get_data(gc);
266 struct vgpio_irq_line *irq_line = &vgpio->irq_lines[d->hwirq];
268 raw_spin_lock(&vgpio->eventq_lock);
270 raw_spin_unlock(&vgpio->eventq_lock);
276 struct virtio_gpio *vgpio = gpiochip_get_data(gc);
277 struct vgpio_irq_line *irq_line = &vgpio->irq_lines[d->hwirq];
279 raw_spin_lock(&vgpio->eventq_lock);
283 virtio_gpio_irq_prepare(vgpio, d->hwirq);
284 raw_spin_unlock(&vgpio->eventq_lock);
290 struct virtio_gpio *vgpio = gpiochip_get_data(gc);
291 struct vgpio_irq_line *irq_line = &vgpio->irq_lines[d->hwirq];
310 dev_err(&vgpio->vdev->dev, "unsupported irq type: %u\n", type);
323 struct virtio_gpio *vgpio = gpiochip_get_data(gc);
325 mutex_lock(&vgpio->irq_lock);
331 struct virtio_gpio *vgpio = gpiochip_get_data(gc);
332 struct vgpio_irq_line *irq_line = &vgpio->irq_lines[d->hwirq];
338 virtio_gpio_req(vgpio, VIRTIO_GPIO_MSG_IRQ_TYPE, d->hwirq, type,
342 raw_spin_lock_irqsave(&vgpio->eventq_lock, flags);
345 virtio_gpio_irq_prepare(vgpio, d->hwirq);
347 raw_spin_unlock_irqrestore(&vgpio->eventq_lock, flags);
350 mutex_unlock(&vgpio->irq_lock);
366 static bool ignore_irq(struct virtio_gpio *vgpio, int gpio,
371 raw_spin_lock(&vgpio->eventq_lock);
385 virtio_gpio_irq_prepare(vgpio, gpio);
394 raw_spin_unlock(&vgpio->eventq_lock);
401 struct virtio_gpio *vgpio = vq->vdev->priv;
402 struct device *dev = &vgpio->vdev->dev;
408 irq_line = virtqueue_get_buf(vgpio->event_vq, &len);
424 gpio = irq_line - vgpio->irq_lines;
425 WARN_ON(gpio >= vgpio->gc.ngpio);
427 if (unlikely(ignore_irq(vgpio, gpio, irq_line)))
430 ret = generic_handle_domain_irq(vgpio->gc.irq.domain, gpio);
457 static int virtio_gpio_alloc_vqs(struct virtio_gpio *vgpio,
468 ret = virtio_find_vqs(vdev, vgpio->irq_lines ? 2 : 1, vqs, cbs, names, NULL);
478 vgpio->request_vq = vqs[0];
480 if (vgpio->irq_lines && !vqs[1]) {
484 vgpio->event_vq = vqs[1];
495 static const char **virtio_gpio_get_names(struct virtio_gpio *vgpio,
499 struct device *dev = &vgpio->vdev->dev;
513 ret = _virtio_gpio_req(vgpio, VIRTIO_GPIO_MSG_GET_NAMES, 0, 0, NULL,
544 struct virtio_gpio *vgpio;
549 vgpio = devm_kzalloc(dev, sizeof(*vgpio), GFP_KERNEL);
550 if (!vgpio)
562 vgpio->lines = devm_kcalloc(dev, ngpio, sizeof(*vgpio->lines), GFP_KERNEL);
563 if (!vgpio->lines)
567 mutex_init(&vgpio->lines[i].lock);
568 init_completion(&vgpio->lines[i].completion);
571 mutex_init(&vgpio->lock);
572 vdev->priv = vgpio;
574 vgpio->vdev = vdev;
575 vgpio->gc.free = virtio_gpio_free;
576 vgpio->gc.get_direction = virtio_gpio_get_direction;
577 vgpio->gc.direction_input = virtio_gpio_direction_input;
578 vgpio->gc.direction_output = virtio_gpio_direction_output;
579 vgpio->gc.get = virtio_gpio_get;
580 vgpio->gc.set = virtio_gpio_set;
581 vgpio->gc.ngpio = ngpio;
582 vgpio->gc.base = -1; /* Allocate base dynamically */
583 vgpio->gc.label = dev_name(dev);
584 vgpio->gc.parent = dev;
585 vgpio->gc.owner = THIS_MODULE;
586 vgpio->gc.can_sleep = true;
590 vgpio->irq_lines = devm_kcalloc(dev, ngpio, sizeof(*vgpio->irq_lines), GFP_KERNEL);
591 if (!vgpio->irq_lines)
595 vgpio->gc.irq.parent_handler = NULL;
596 vgpio->gc.irq.num_parents = 0;
597 vgpio->gc.irq.parents = NULL;
598 vgpio->gc.irq.default_type = IRQ_TYPE_NONE;
599 vgpio->gc.irq.handler = handle_level_irq;
600 vgpio->gc.irq.chip = &vgpio_irq_chip;
603 vgpio->irq_lines[i].type = VIRTIO_GPIO_IRQ_TYPE_NONE;
604 vgpio->irq_lines[i].disabled = true;
605 vgpio->irq_lines[i].masked = true;
608 mutex_init(&vgpio->irq_lock);
609 raw_spin_lock_init(&vgpio->eventq_lock);
612 ret = virtio_gpio_alloc_vqs(vgpio, vdev);
619 vgpio->gc.names = virtio_gpio_get_names(vgpio, gpio_names_size, ngpio);
621 ret = gpiochip_add_data(&vgpio->gc, vgpio);
632 struct virtio_gpio *vgpio = vdev->priv;
634 gpiochip_remove(&vgpio->gc);