Lines Matching refs:vdev

41 	container_of(_vdev, struct virtio_uml_device, vdev)
51 struct virtio_device vdev;
393 virtio_device_for_each_vq((&vu_dev->vdev), vq) {
435 virtio_device_for_each_vq((&vu_dev->vdev), vq) {
441 virtio_config_changed(&vu_dev->vdev);
791 vu_dev = to_virtio_uml_device(vq->vdev);
821 static void vu_get(struct virtio_device *vdev, unsigned offset,
824 struct virtio_uml_device *vu_dev = to_virtio_uml_device(vdev);
829 static void vu_set(struct virtio_device *vdev, unsigned offset,
832 struct virtio_uml_device *vu_dev = to_virtio_uml_device(vdev);
837 static u8 vu_get_status(struct virtio_device *vdev)
839 struct virtio_uml_device *vu_dev = to_virtio_uml_device(vdev);
844 static void vu_set_status(struct virtio_device *vdev, u8 status)
846 struct virtio_uml_device *vu_dev = to_virtio_uml_device(vdev);
851 static void vu_reset(struct virtio_device *vdev)
853 struct virtio_uml_device *vu_dev = to_virtio_uml_device(vdev);
865 vu_dev = to_virtio_uml_device(vq->vdev);
878 static void vu_del_vqs(struct virtio_device *vdev)
880 struct virtio_uml_device *vu_dev = to_virtio_uml_device(vdev);
885 list_for_each_entry_reverse(vq, &vdev->vqs, list)
891 list_for_each_entry_safe(vq, n, &vdev->vqs, list)
939 static struct virtqueue *vu_setup_vq(struct virtio_device *vdev,
943 struct virtio_uml_device *vu_dev = to_virtio_uml_device(vdev);
958 vq = vring_create_virtqueue(index, num, PAGE_SIZE, vdev, true, true,
1016 static int vu_find_vqs(struct virtio_device *vdev, unsigned nvqs,
1021 struct virtio_uml_device *vu_dev = to_virtio_uml_device(vdev);
1039 vqs[i] = vu_setup_vq(vdev, queue_idx++, callbacks[i], names[i],
1047 list_for_each_entry(vq, &vdev->vqs, list) {
1065 vu_del_vqs(vdev);
1069 static u64 vu_get_features(struct virtio_device *vdev)
1071 struct virtio_uml_device *vu_dev = to_virtio_uml_device(vdev);
1076 static int vu_finalize_features(struct virtio_device *vdev)
1078 struct virtio_uml_device *vu_dev = to_virtio_uml_device(vdev);
1079 u64 supported = vdev->features & VHOST_USER_SUPPORTED_F;
1081 vring_transport_features(vdev);
1082 vu_dev->features = vdev->features | supported;
1087 static const char *vu_bus_name(struct virtio_device *vdev)
1089 struct virtio_uml_device *vu_dev = to_virtio_uml_device(vdev);
1109 struct virtio_device *vdev =
1111 struct virtio_uml_device *vu_dev = to_virtio_uml_device(vdev);
1125 void virtio_uml_set_no_vq_suspend(struct virtio_device *vdev,
1128 struct virtio_uml_device *vu_dev = to_virtio_uml_device(vdev);
1130 if (WARN_ON(vdev->config != &virtio_uml_config_ops))
1134 dev_info(&vdev->dev, "%sabled VQ suspend\n",
1147 virtio_break_device(&vu_dev->vdev);
1204 vu_dev->vdev.dev.parent = &pdev->dev;
1205 vu_dev->vdev.dev.release = virtio_uml_release_dev;
1206 vu_dev->vdev.config = &virtio_uml_config_ops;
1207 vu_dev->vdev.id.device = pdata->virtio_device_id;
1208 vu_dev->vdev.id.vendor = VIRTIO_DEV_ANY_ID;
1229 device_set_wakeup_capable(&vu_dev->vdev.dev, true);
1231 rc = register_virtio_device(&vu_dev->vdev);
1233 put_device(&vu_dev->vdev.dev);
1248 unregister_virtio_device(&vu_dev->vdev);
1285 virtio_break_device(&vu_dev->vdev);
1407 virtio_device_for_each_vq((&vu_dev->vdev), vq) {
1415 if (!device_may_wakeup(&vu_dev->vdev.dev)) {
1430 virtio_device_for_each_vq((&vu_dev->vdev), vq) {
1440 if (!device_may_wakeup(&vu_dev->vdev.dev))