tee를 사용한 병렬 파일 복사가 예기치 않게 느립니다.

tee를 사용한 병렬 파일 복사가 예기치 않게 느립니다.

우리는 사이트-1에서 사이트-2로 대규모 zfs 스냅샷(zfs send)을 복사하고 있습니다. 사이트-1과 사이트-2는 원격이며 IPsec을 통해 연결되어 있습니다(읽기: 느림).

사이트 2에서는 두 개의 서로 다른 zfs 서버에 대한 데이터가 필요합니다. 현재 우리는 두 개의 동시 ssh "zfs send" | zfs receive 명령을 사용하고 있습니다. 물론 이는 대역폭 낭비입니다.

우리는 다음을 시도했습니다(원격 ssh 1개, tee, 로컬 ssh 1개):

[root@site-2-1 ~]# \
    time \
    ssh root@site-1-0 \
        "cat /tmp/100000000.rnd | pigz -1" \
    | pv -B 10m -s 100000000 \
    | tee \
        >(ssh root@site-2-2 "pigz -d > /tmp/test.rnd.1") \
    | pigz -d \
    > /tmp/test.rnd.1

95.4MiB 0:00:52 [1.83MiB/s] [===<snipped>===>] 100%

real    0m52.062s
user    0m0.979s
sys 0m1.100s

결과는 원래 솔루션의 시뮬레이션보다 느립니다(동시에 2개의 원격 SSH).

[root@site-2-1 ~]# \
    time \
    ssh root@site-1-0 \
        "cat /tmp/100000000.rnd | pigz -1" \
    | pv -B 10m -s 100000000 \
    | pigz -d \
    > /tmp/test.rnd.2
95.4MiB 0:00:30 [3.09MiB/s] [===<snipped>===>] 100%

real    0m30.837s
user    0m0.827s
sys 0m1.003s


[root@site-2-2 ~]# \
    time \
    ssh root@site-1-0 \
        "cat /tmp/100000000.rnd | pigz -1" \
    | pv -B 10m -s 100000000 \
    | pigz -d \
    > /tmp/test.rnd.2
95.4MiB 0:00:38 [ 2.5MiB/s] [===<snipped>===>] 100%

real    0m38.187s
user    0m0.840s
sys 0m0.846s

유력 용의자인 tee의 코드를 살펴보니 단일 스레드에서 실행되는 것으로 보입니다.

티셔츠보다 더 빠른 대안이나 완전히 다른 솔루션을 추천할 수 있는 사람이 있나요?

미리 감사드립니다, 구웬

답변1

제안:

zfs send > file
scp file server-at-site2:
ssh server-at-site2 zfs receive < file
ssh server-at-site2 cat file | ssh second-server-at-site2 zfs receive

이를 위해서는 두 번의 전송이 필요하지만 아마도 두 번째 전송이 더 빠를 것입니다(로컬 네트워크 등으로 인해).

관련 정보