다음과 같이 공백으로 구분된 줄이 5000개 이상 있습니다.
Item_A: Acou#1 Bla#5
Item_B: Acou#1 Elfa#2 Flq#2
Item_C: Acou#1 Bla#4 Elfa#2 Flq#2
Item_D: Agly#3 Bla#4 Elfa#2
아래와 같이 테이블의 모든 내용과 수량에 대한 공통 헤더를 갖는 테이블을 만들고 싶습니다.
Acou Agly Bla Elfa Flq
Item_A: 1 0 5 0 0
Item_B: 1 0 0 2 2
Item_C: 1 0 4 2 2
Item_D: 0 3 4 2 0
나는 "Acou", "Bla" 등이 포함된 줄을 찾아봤습니다. 그런 다음 Excel에서 편집하여 수량화하고 모든 개별 파일을 하나의 파일로 결합합니다. 그러나 시간이 많이 걸렸습니다.
답변1
BEGIN { OFS = "\t" }
# Collect headers from data
FNR == NR {
for (i = 2; i <= NF; ++i)
if (!($i in heads))
heads[$i]
next
}
# Output header
FNR == 1 {
line = "Items"
for (j in heads)
line = line OFS j
print line
}
{
line = $1
# Iterate through the header items, testing each field against it
for (j in heads) {
found = 0 # assume not found
for (i = 2; !found && i <= NF; ++i)
if ($i == j)
found = 1 # matches header
line = line OFS found
}
print line
}
데이터에 대해 다음 명령을 실행합니다(빈 줄을 제거한 후).
$ awk -f script.awk file file
Items Acou#1 Bla#4 Bla#5 Elfa#2 Agly#3 Flq#2
Item_A: 1 0 1 0 0 0
Item_B: 1 0 0 1 0 1
Item_C: 1 1 0 1 0 1
Item_D: 0 1 0 1 1 0
입력 데이터 파일을 두 번 지정해야 합니다. 두 번 스캔했기 때문입니다. 첫 번째 스캔에서는 FNR == NR
각 행(블록)에 대한 데이터 항목을 수집합니다. 두 번째 스캔에서는 수집된 각 데이터 항목(헤더)을 각 데이터 행에 대해 테스트합니다.
출력은 단순히 0
헤더의 필드가 행의 데이터에 있는지 여부와 존재 1
하는 경우입니다. 이것은 아니다상당히뭘 요구하는 거야, 그래서...
제목을 자르고 #
결과 부분을 #
표시할 데이터로 사용하는 변형입니다.
BEGIN { OFS = "\t" }
# Collect headers from data
FNR == NR {
for (i = 2; i <= NF; ++i) {
split($i, h, "#")
if (!(h[1] in heads))
heads[h[1]]
}
next
}
# Output header
FNR == 1 {
line = "Items"
for (j in heads)
line = line OFS j
print line
}
{
line = $1
# Iterate through the header items, testing each field against it
for (j in heads) {
found = 0 # assume not found
for (i = 2; !found && i <= NF; ++i) {
split($i, h, "#")
if (h[1] == j)
found = h[2] # matches header
}
line = line OFS found
}
print line
}
실행하세요:
$ awk -f script.awk file file
Items Elfa Bla Acou Agly Flq
Item_A: 0 5 1 0 0
Item_B: 2 0 1 0 2
Item_C: 2 4 1 0 2
Item_D: 2 4 0 3 0
열의 순서는 반드시 정렬되지는 않습니다(연관 배열의 키로 저장되므로). 나는 그것을 독자들이 분류할 수 있도록 연습으로 남겨둔다.
답변2
던져도 괜찮다면GNU 데이터 혼합그런 다음 항목을 직렬화한 다음 교차 분석하면 됩니다.
awk '
{for (i=2;i<=NF;i++) {split($i,a,"#"); print $1,a[1],a[2]}}' OFS='\t' file |
datamash --filler=0 crosstab 1,2 count 3
Acou Agly Bla Elfa Flq
Item_A: 1 0 1 0 0
Item_B: 1 0 0 1 1
Item_C: 1 0 1 1 1
Item_D: 0 1 1 1 0
또는 GNU awk를 사용하십시오(다차원 배열 허용).
gawk '
BEGIN {
OFS="\t";
PROCINFO["sorted_in"] = "@ind_str_asc";
}
{
for (i=2;i<=NF;i++) {
split($i,a,"#");
h[a[1]] = 1;
t[$1][a[1]] += a[2];
}
}
END {
for (j in h) printf("\t%s", j);
printf "\n";
for (i in t) {
printf("%s",i);
for (j in h)
printf("\t%d", j in t[i] ? t[i][j] : 0);
printf "\n";
}
}' file
Acou Agly Bla Elfa Flq
Item_A: 1 0 5 0 0
Item_B: 1 0 0 2 2
Item_C: 1 0 4 2 2
Item_D: 0 3 4 2 0