Lines Matching refs:iov_len
22 __v.iov_len = min(n, __p->iov_len - skip); \
23 if (likely(__v.iov_len)) { \
26 __v.iov_len -= left; \
27 skip += __v.iov_len; \
28 n -= __v.iov_len; \
34 __v.iov_len = min(n, __p->iov_len); \
35 if (unlikely(!__v.iov_len)) \
39 __v.iov_len -= left; \
40 skip = __v.iov_len; \
41 n -= __v.iov_len; \
49 __v.iov_len = min(n, __p->iov_len - skip); \
50 if (likely(__v.iov_len)) { \
53 skip += __v.iov_len; \
54 n -= __v.iov_len; \
58 __v.iov_len = min(n, __p->iov_len); \
59 if (unlikely(!__v.iov_len)) \
63 skip = __v.iov_len; \
64 n -= __v.iov_len; \
118 if (skip == kvec->iov_len) { \
130 if (skip == iov->iov_len) { \
183 copy = min(bytes, iov->iov_len - skip);
199 copy = min(bytes, iov->iov_len);
213 copy = min(bytes, iov->iov_len - skip);
227 copy = min(bytes, iov->iov_len);
237 if (skip == iov->iov_len) {
267 copy = min(bytes, iov->iov_len - skip);
283 copy = min(bytes, iov->iov_len);
297 copy = min(bytes, iov->iov_len - skip);
311 copy = min(bytes, iov->iov_len);
321 if (skip == iov->iov_len) {
440 err = fault_in_pages_readable(v.iov_base, v.iov_len);
626 copyout(v.iov_base, (from += v.iov_len) - v.iov_len, v.iov_len),
629 memcpy(v.iov_base, (from += v.iov_len) - v.iov_len, v.iov_len)
726 copyout_mc(v.iov_base, (from += v.iov_len) - v.iov_len,
727 v.iov_len),
738 rem = copy_mc_to_kernel(v.iov_base, (from += v.iov_len)
739 - v.iov_len, v.iov_len);
763 copyin((to += v.iov_len) - v.iov_len, v.iov_base, v.iov_len),
766 memcpy((to += v.iov_len) - v.iov_len, v.iov_base, v.iov_len)
786 if (copyin((to += v.iov_len) - v.iov_len,
787 v.iov_base, v.iov_len))
792 memcpy((to += v.iov_len) - v.iov_len, v.iov_base, v.iov_len)
808 __copy_from_user_inatomic_nocache((to += v.iov_len) - v.iov_len,
809 v.iov_base, v.iov_len),
812 memcpy((to += v.iov_len) - v.iov_len, v.iov_base, v.iov_len)
842 __copy_from_user_flushcache((to += v.iov_len) - v.iov_len,
843 v.iov_base, v.iov_len),
846 memcpy_flushcache((to += v.iov_len) - v.iov_len, v.iov_base,
847 v.iov_len)
865 if (__copy_from_user_inatomic_nocache((to += v.iov_len) - v.iov_len,
866 v.iov_base, v.iov_len))
871 memcpy((to += v.iov_len) - v.iov_len, v.iov_base, v.iov_len)
976 clear_user(v.iov_base, v.iov_len),
978 memset(v.iov_base, 0, v.iov_len)
999 copyin((p += v.iov_len) - v.iov_len, v.iov_base, v.iov_len),
1002 memcpy((p += v.iov_len) - v.iov_len, v.iov_base, v.iov_len)
1132 size_t n = (--iov)->iov_len;
1159 return min(i->count, i->iov->iov_len - i->iov_offset);
1235 (res |= (unsigned long)v.iov_base | v.iov_len, 0),
1237 res |= (unsigned long)v.iov_base | v.iov_len
1255 (size != v.iov_len ? size : 0), 0),
1259 (size != v.iov_len ? size : 0))
1323 size_t len = v.iov_len + (*start = addr & (PAGE_SIZE - 1));
1404 size_t len = v.iov_len + (*start = addr & (PAGE_SIZE - 1));
1451 (to += v.iov_len) - v.iov_len,
1452 v.iov_len);
1455 off += v.iov_len;
1457 next ? 0 : v.iov_len;
1466 sum = csum_and_memcpy((to += v.iov_len) - v.iov_len,
1467 v.iov_base, v.iov_len,
1469 off += v.iov_len;
1492 (to += v.iov_len) - v.iov_len,
1493 v.iov_len);
1497 off += v.iov_len;
1507 sum = csum_and_memcpy((to += v.iov_len) - v.iov_len,
1508 v.iov_base, v.iov_len,
1510 off += v.iov_len;
1537 next = csum_and_copy_to_user((from += v.iov_len) - v.iov_len,
1539 v.iov_len);
1542 off += v.iov_len;
1544 next ? 0 : v.iov_len;
1554 (from += v.iov_len) - v.iov_len,
1555 v.iov_len, sum, off);
1556 off += v.iov_len;
1609 npages += DIV_ROUND_UP(p + v.iov_len, PAGE_SIZE)
1619 npages += DIV_ROUND_UP(p + v.iov_len, PAGE_SIZE)
1664 unsafe_get_user(len, &uiov[i].iov_len, uaccess_end);
1673 iov[i].iov_len = len;
1690 if ((ssize_t)iov[seg].iov_len < 0)
1755 ssize_t len = (ssize_t)iov[seg].iov_len;
1766 iov[seg].iov_len = len;
1819 iov->iov_len = len;