amazon-s3

aws cli를 사용하는 xargs cat 파일(Amazon s3 move)
amazon-s3

aws cli를 사용하는 xargs cat 파일(Amazon s3 move)

file.csvs3의 다른 폴더(더 정확하게는 S3 버킷 내의 파일 경로)로 이동해야 하는 파일 목록인 이라는 파일이 있습니다 . 파일에는 53,00,000개의 파일이 나열됩니다. 다음을 시도했지만 각 작업에 시간이 오래 걸립니다. cat file.csv | xargs -I {} aws s3 mv s3://Bucket1/{} s3://Bucket2/{} 다음을 통해 프로세스 속도를 높이려고 합니다. cat file.csv | xargs -P50 -I {} aws s3 mv --recursive s3...

Admin

Contabo의 객체 스토리지 - 객체 잠금 보존(AWS S3 호환)
amazon-s3

Contabo의 객체 스토리지 - 객체 잠금 보존(AWS S3 호환)

나는 어려움을 겪고 있다Contabo의 객체 스토리지. "S3 Object Storage 읽기 및 쓰기" 권한이 있는 사용자를 통해 "Backup"이라는 aws 프로필을 구성했습니다. 이 구성 파일을 통해 다음 셸 스크립트를 실행했습니다. echo "Bucket: "$BUCKET echo "Key: "$KEY echo "Profile: "$PROFILE echo "Region: "$REGION echo "Endpoint: "$ENDPOINT aws --profile $PROFILE --region ...

Admin

치명적인 오류로 인해 aws s3 복사가 실패합니다. HeadObject 작업을 호출하는 동안 오류가 발생했습니다(403): 금지됨
amazon-s3

치명적인 오류로 인해 aws s3 복사가 실패합니다. HeadObject 작업을 호출하는 동안 오류가 발생했습니다(403): 금지됨

S3 버킷의 파일을 EC2 인스턴스로 복사합니다. EC2 인스턴스와 S3 버킷은 동일한 리전 us-east-2에 있습니다. S3 버킷에는 ACL이 비활성화되어 있으며 공개 액세스가 허용됩니다. # /usr/local/bin/aws s3 cp s3://Bucket_name/Trail_SW/server_dec.tar.gz /tmp --source-region us-east-2 fatal error: An error occurred (403) when calling the HeadObject operati...

Admin

S3에서 여러 개의 대용량 파일을 단일 압축 파일로 백업하는 방법
amazon-s3

S3에서 여러 개의 대용량 파일을 단일 압축 파일로 백업하는 방법

내 애플리케이션에는 총 10TB가 넘는 수천 개의 파일이 포함되어 있습니다. 이 데이터를 어딘가(아마도 AWS S3)에 백업해야 합니다. 제 생각에는: 백업 중인 데이터 압축 백업을 단일 파일로 저장 예를 들어 gzip으로 압축된 tar 파일입니다. 크기 때문에 gzip 압축 tar 파일이 너무 커서 로컬에서 생성할 수 없습니다. 내가 어떻게 할 수있는: 이러한 모든 폴더와 파일을 단일 압축 파일로 AWS S3에 스트리밍하시겠습니까? 압축된 파일을 S3에서 내 디스크로 다시 스트리밍하고 원래 파...

Admin

Flask Systemd 서비스가 s3 버킷 설치 폴더의 비디오 파일을 열 수 없습니다.
amazon-s3

Flask Systemd 서비스가 s3 버킷 설치 폴더의 비디오 파일을 열 수 없습니다.

내 Flask 앱이 서비스로 실행 중이지만 s3bucket 설치 폴더에서 비디오 파일을 읽을 수 없습니다. OpenCV는 로드가 실패해도 오류를 발생시키지 않지만 0 프레임 배열을 반환합니다. 따라서 우리는 s3 버킷 경로에서 읽을 수 없다는 것을 알고 있습니다. 서비스 프로필 [Unit] Description=service After=network.target [Service] User=ubuntu Group=www-data WorkingDirectory=/home/ubuntu/sr...

Admin

블록이 포함된 S3 CP 명령에 변수 포함
amazon-s3

블록이 포함된 S3 CP 명령에 변수 포함

S3 cp 명령에 일부 파일 이름을 포함하고 싶지만 계속 실패하는 시나리오가 있습니다. 다음은 내 명령입니다:- DATE=$(date '+%Y%m%d') /usr/local/bin/aws s3 cp "/test/copy" "s3://test-bucket/test/copy/" --include "TEST_$DATE.REQHE" --include "TEST_$DATE.ERRMSG_REQHE" 명령을 실행하는 동안 다음 오류가 발생합니다.- upload failed: ./ to s3://test-buc...

Admin

메모리에서 S3로 업로드하고 벤치마킹합니다.
amazon-s3

메모리에서 S3로 업로드하고 벤치마킹합니다.

저는 S3 읽기/쓰기에서 매우 기본적인 시간 명령을 실행하고 있습니다. 문제는 시스템 IO의 영향을 받지 않고 메모리에서 테스트하고 싶다는 것입니다. 한 친구가 /dev/null을 파이프로 사용하자고 제안했지만 제 폴더에는 1000개의 파일이 있고 크기는 약 1GB입니다. 내 bash 명령은 이제 다음과 같습니다. time aws s3 cp folder s3://mybucket/folder 메모리 쓰기 시간만 측정하도록 제안할 사항이 있나요? 매우 감사합니다 ...

Admin

S3에 (매일/매주/매월) 백업할 수 있는 상용/무료 소프트웨어/스크립트 시스템이 있습니까?
amazon-s3

S3에 (매일/매주/매월) 백업할 수 있는 상용/무료 소프트웨어/스크립트 시스템이 있습니까?

한때 rsnap물리적 하드 드라이브를 사용하여 10개의 중요한 머신(CentOS/RHEL)을 백업한 적이 있습니다. 대상이 AWS/S3 버킷이 되도록 이 백업을 마이그레이션하고 싶습니다. 바퀴를 다시 만들어야 합니까, 아니면 S3에 (매일/매주/매월) 백업할 수 있는 상용/무료 소프트웨어/스크립트 시스템이 있습니까? ...

Admin

파일 이름을 기준으로 s3 버킷의 파일 필터링
amazon-s3

파일 이름을 기준으로 s3 버킷의 파일 필터링

다음과 같은 이름의 파일이 포함된 s3 버킷이 있습니다. example_test_20200612010000 example_test_20200612020000 example_test_20200612020000 example_control_20200612010000 example_control_20200612020000 example_control_20200612020000 이와 같은 파일은 몇 분마다 이 s3 버킷으로 들어옵니다. 어떤 테스트 파일이 새로운 것인지(아직 처리하지 않은) 확인해야 ...

Admin

명령에서 변수를 저장하고 확장하는 방법은 무엇입니까?
amazon-s3

명령에서 변수를 저장하고 확장하는 방법은 무엇입니까?

크기를 구하려고 하는데S3 폴더그리고 그것을 저장데이터베이스로 유입 아래는 내 코드입니다 #!/bin/bash -x FILESIZE=$(mktemp) s3cmd du -r "s3://path1/path2/" | awk '{print $1}' >> "$FILESIZE" cat "$FILESIZE" echo curl -i -XPOST "http://localhost:8086/write?db=S3check&precision=s" --data-binary "ecmwftrack,buc...

Admin

S3 Spaces에서 최신 150개 파일을 다운로드하고 싶습니다.
amazon-s3

S3 Spaces에서 최신 150개 파일을 다운로드하고 싶습니다.

S3 Spaces에서 최신 150개 파일을 다운로드하고 싶습니다. 이 명령을 사용했습니다 s3cmd get s3://obs/site1/uploads/large/ /home/ankit -r | tail -n150 하지만 내가 원하는 효과는 없습니다. 대신 모든 파일을 다운로드하기 시작합니다. 예를 들어: 내가 명령한다면: 입력하다 s3cmd ls s3://obs/site1/uploads/large/ 산출 2020-04-30 20:04 0 s3://obs/site1/uplo...

Admin

Bash 스크립트를 통해 S3 Bucket 하위 폴더의 크기 가져오기
amazon-s3

Bash 스크립트를 통해 S3 Bucket 하위 폴더의 크기 가져오기

S3 버킷에 있는 하위 폴더의 전체 크기를 가져오기 위해 bash 스크립트를 작성하려고 합니다. 내 양동이s3://경로1/경로2/하위 폴더 path2 폴더 안에는 다음과 같은 많은 하위 폴더가 있습니다. 2019_06 2019_07 2019_08 2019_09 2019_10 2019_11 2019_12 Bash 스크립트에서 각 하위 폴더의 크기를 가져와야 합니다. 나는 이런 대본을 썼다. ** #!/bin/bash FILES=$(mktemp) aws s3 ls "s3:...

Admin

출력 파일의 각 줄을 동일한 bash 스크립트의 for 루프에 매개변수로 전달하는 방법은 무엇입니까?
amazon-s3

출력 파일의 각 줄을 동일한 bash 스크립트의 for 루프에 매개변수로 전달하는 방법은 무엇입니까?

S3 버킷에 있는 하위 폴더의 전체 크기를 가져오기 위해 bash 스크립트를 작성하려고 합니다. 내 양동이s3://path1/path2/subfolders path2 폴더 안에는 다음과 같은 많은 하위 폴더가 있습니다. 2019_06 2019_07 2019_08 2019_09 2019_10 2019_11 2019_12 Bash 스크립트에서 각 하위 폴더의 크기를 가져와야 합니다. 나는 이런 대본을 썼다. #!/bin/bash FILES=$(mktemp) aws s3 ls "s3://p...

Admin

s3cmd ls 출력을 날짜별로 정렬하는 방법은 무엇입니까?
amazon-s3

s3cmd ls 출력을 날짜별로 정렬하는 방법은 무엇입니까?

이름에 포함된 날짜를 기준으로 s3 저장소의 디렉터리를 정렬하고 싶습니다. 내가 달릴 때 s3cmd ls s3://xyz/private/backups/mails/daily/ | awk '{print $2}' 다음과 같은 디렉토리를 나열합니다. s3://xyz/private/backups/mails/daily/01_Apr_2020/ s3://xyz/private/backups/mails/daily/02_Apr_2020/ s3://xyz/private/backups/mails/daily/03_A...

Admin

sigterm의 이상한 AWS 동기화 동작
amazon-s3

sigterm의 이상한 AWS 동기화 동작

이것은 나에게 혼란스러운 행동입니다. aws s3sync 명령이 실행되는 동안 스크립트에 종료 신호를 보냈고 sigterm 오류를 처리했지만 오류 트랩도 awssync 명령에 의해 트리거되었으며 그 이유를 이해할 수 없습니다. 더욱 혼란스러운 점은 명령이 오류를 발생시키고 계속된다는 것입니다. 스크립트: #! /bin/bash trap 'echo GOT ERROR, exiting' ERR trap 'echo GOT SIGTERM!' SIGTERM while true; do date +%F...

Admin