Chcę scalić dwie ramki danych na określonych kolumnach (klucz1, klucz2) i zsumować wartości dla innej kolumny (wartości).scalanie 2 ramek danych w Pandach: łączenie w niektórych kolumnach, podsumowywanie innych
>>> df1 = pd.DataFrame({'key1': range(4), 'key2': range(4), 'value': range(4)})
key1 key2 value
0 0 0 0
1 1 1 1
2 2 2 2
3 3 3 3
>>> df2 = pd.DataFrame({'key1': range(2, 6), 'key2': range(2, 6), 'noise': range(2, 6), 'value': range(10, 14)})
key1 key2 noise value
0 2 2 2 10
1 3 3 3 11
2 4 4 4 12
3 5 5 5 13
Chcę ten wynik:
key1 key2 value
0 0 0 0
1 1 1 1
2 2 2 12
3 3 3 14
4 4 4 12
5 5 5 13
W kategoriach SQL, chcę:
SELECT df1.key1, df1.key2, df1.value + df2.value AS value
FROM df1 OUTER JOIN df2 ON key1, key2
Próbowałem dwóch podejść:
podejście 1
concatenated = pd.concat([df1, df2])
grouped = concatenated.groupby(['key1', 'key2'], as_index=False)
summed = grouped.agg(np.sum)
result = summed[['key1', 'key2', 'value']]
podejście 2
joined = pd.merge(df1, df2, how='outer', on=['key1', 'key2'], suffixes=['_1', '_2'])
joined = joined.fillna(0.0)
joined['value'] = joined['value_1'] + joined['value_2']
result = joined[['key1', 'key2', 'value']]
Oba podejścia daje wynik chcę, ale zastanawiam się, czy istnieje prostszy sposób.
Wygląda na to, że powinny być bardziej zwięzłe ... jak agregacja czasu scalenia. –
Szukałem magicznej funkcji, która robi wszystko w zoptymalizowany sposób. – Laurie
Wybrałem podejście 2, i przykuty ops, jak to możliwe, ponieważ jest szybszy w ten sposób. – Laurie