Lines Matching defs:iio_dev_opaque
312 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
316 for (i = 0; i < iio_dev_opaque->attached_buffers_cnt; i++) {
317 buffer = iio_dev_opaque->attached_buffers[i];
344 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
348 for (i = 0; i < iio_dev_opaque->attached_buffers_cnt; i++) {
349 buffer = iio_dev_opaque->attached_buffers[i];
353 kfree(iio_dev_opaque->attached_buffers);
513 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
520 mutex_lock(&iio_dev_opaque->mlock);
539 mutex_unlock(&iio_dev_opaque->mlock);
560 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
568 mutex_lock(&iio_dev_opaque->mlock);
575 mutex_unlock(&iio_dev_opaque->mlock);
649 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
661 mutex_lock(&iio_dev_opaque->mlock);
673 mutex_unlock(&iio_dev_opaque->mlock);
701 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
704 iio_dev_opaque->scan_index_timestamp);
736 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
739 list_add(&buffer->buffer_list, &iio_dev_opaque->buffer_list);
751 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
755 &iio_dev_opaque->buffer_list, buffer_list)
829 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
852 list_is_singular(&iio_dev_opaque->buffer_list))
857 list_for_each_entry(buffer, &iio_dev_opaque->buffer_list, buffer_list) {
878 if (insert_buffer && !list_empty(&iio_dev_opaque->buffer_list))
898 list_for_each_entry(buffer, &iio_dev_opaque->buffer_list, buffer_list) {
1044 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
1048 list_for_each_entry(buffer, &iio_dev_opaque->buffer_list, buffer_list) {
1056 list_for_each_entry(buffer, &iio_dev_opaque->buffer_list, buffer_list)
1065 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
1072 iio_dev_opaque->currentmode = config->mode;
1102 list_for_each_entry(buffer, &iio_dev_opaque->buffer_list, buffer_list) {
1110 if (iio_dev_opaque->currentmode == INDIO_BUFFER_TRIGGERED) {
1129 if (iio_dev_opaque->currentmode == INDIO_BUFFER_TRIGGERED) {
1134 buffer = list_prepare_entry(tmp, &iio_dev_opaque->buffer_list, buffer_list);
1135 list_for_each_entry_continue_reverse(buffer, &iio_dev_opaque->buffer_list,
1142 iio_dev_opaque->currentmode = INDIO_DIRECT_MODE;
1150 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
1156 if (list_empty(&iio_dev_opaque->buffer_list))
1172 if (iio_dev_opaque->currentmode == INDIO_BUFFER_TRIGGERED) {
1177 list_for_each_entry(buffer, &iio_dev_opaque->buffer_list, buffer_list) {
1191 iio_dev_opaque->currentmode = INDIO_DIRECT_MODE;
1200 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
1225 if (list_empty(&iio_dev_opaque->buffer_list))
1254 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
1264 mutex_lock(&iio_dev_opaque->info_exist_lock);
1265 mutex_lock(&iio_dev_opaque->mlock);
1286 mutex_unlock(&iio_dev_opaque->mlock);
1287 mutex_unlock(&iio_dev_opaque->info_exist_lock);
1305 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
1313 mutex_lock(&iio_dev_opaque->mlock);
1327 mutex_unlock(&iio_dev_opaque->mlock);
1344 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
1355 mutex_lock(&iio_dev_opaque->mlock);
1369 mutex_unlock(&iio_dev_opaque->mlock);
1452 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
1463 group = &iio_dev_opaque->legacy_buffer_group;
1480 group = &iio_dev_opaque->legacy_scan_el_group;
1491 kfree(iio_dev_opaque->legacy_scan_el_group.attrs);
1493 kfree(iio_dev_opaque->legacy_buffer_group.attrs);
1500 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
1502 kfree(iio_dev_opaque->legacy_buffer_group.attrs);
1503 kfree(iio_dev_opaque->legacy_scan_el_group.attrs);
1532 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
1541 if (idx >= iio_dev_opaque->attached_buffers_cnt)
1546 buffer = iio_dev_opaque->attached_buffers[idx];
1609 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
1651 iio_dev_opaque->scan_index_timestamp =
1749 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
1764 if (!iio_dev_opaque->attached_buffers_cnt)
1767 for (idx = 0; idx < iio_dev_opaque->attached_buffers_cnt; idx++) {
1768 buffer = iio_dev_opaque->attached_buffers[idx];
1774 sz = sizeof(*iio_dev_opaque->buffer_ioctl_handler);
1775 iio_dev_opaque->buffer_ioctl_handler = kzalloc(sz, GFP_KERNEL);
1776 if (!iio_dev_opaque->buffer_ioctl_handler) {
1781 iio_dev_opaque->buffer_ioctl_handler->ioctl = iio_device_buffer_ioctl;
1783 iio_dev_opaque->buffer_ioctl_handler);
1789 buffer = iio_dev_opaque->attached_buffers[idx];
1797 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
1801 if (!iio_dev_opaque->attached_buffers_cnt)
1804 iio_device_ioctl_handler_unregister(iio_dev_opaque->buffer_ioctl_handler);
1805 kfree(iio_dev_opaque->buffer_ioctl_handler);
1807 for (i = iio_dev_opaque->attached_buffers_cnt - 1; i >= 0; i--) {
1808 buffer = iio_dev_opaque->attached_buffers[i];
1867 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
1871 list_for_each_entry(buf, &iio_dev_opaque->buffer_list, buffer_list) {
1899 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
1909 if (iio_dev_opaque->bounce_buffer_size != indio_dev->scan_bytes) {
1913 iio_dev_opaque->bounce_buffer,
1917 iio_dev_opaque->bounce_buffer = bb;
1918 iio_dev_opaque->bounce_buffer_size = indio_dev->scan_bytes;
1920 memcpy(iio_dev_opaque->bounce_buffer, data, data_sz);
1922 iio_dev_opaque->bounce_buffer,
1985 struct iio_dev_opaque *iio_dev_opaque = to_iio_dev_opaque(indio_dev);
1986 struct iio_buffer **new, **old = iio_dev_opaque->attached_buffers;
1987 unsigned int cnt = iio_dev_opaque->attached_buffers_cnt;
1994 iio_dev_opaque->attached_buffers = new;
2002 iio_dev_opaque->attached_buffers[cnt - 1] = buffer;
2003 iio_dev_opaque->attached_buffers_cnt = cnt;