został niedawno poproszony how to do a file slurp in python i zaakceptowane odpowiedź zasugerował coś takiego:Python Slurp pliku w/endian konwersji
with open('x.txt') as x: f = x.read()
Jak bym to zabrać, aby odczytać plik i konwertować endian reprezentację dane?
Na przykład mam plik binarny o pojemności 1 GB, który jest po prostu spławem pojedynczej precyzji spakowanym jako duży endian i chcę go przekonwertować na mały endian i zrzut do tablicy numpy. Poniżej znajduje się funkcja, którą napisałem, aby to osiągnąć i jakiś prawdziwy kod, który ją wywołuje. Używam konwersji z końcówką i próbuję przyspieszyć wszystko, używając mmap
.
Moje pytanie brzmi, czy używam slurp poprawnie z mmap
i struct.unpack
? Czy istnieje czyściejszy i szybszy sposób na zrobienie tego? W tej chwili, co mam działa, ale naprawdę chciałbym nauczyć się, jak to zrobić lepiej.
Z góry dziękuję!
#!/usr/bin/python
from struct import unpack
import mmap
import numpy as np
def mmapChannel(arrayName, fileName, channelNo, line_count, sample_count):
"""
We need to read in the asf internal file and convert it into a numpy array.
It is stored as a single row, and is binary. Thenumber of lines (rows), samples (columns),
and channels all come from the .meta text file
Also, internal format files are packed big endian, but most systems use little endian, so we need
to make that conversion as well.
Memory mapping seemed to improve the ingestion speed a bit
"""
# memory-map the file, size 0 means whole file
# length = line_count * sample_count * arrayName.itemsize
print "\tMemory Mapping..."
with open(fileName, "rb") as f:
map = mmap.mmap(f.fileno(), 0, access=mmap.ACCESS_READ)
map.seek(channelNo*line_count*sample_count*arrayName.itemsize)
for i in xrange(line_count*sample_count):
arrayName[0, i] = unpack('>f', map.read(arrayName.itemsize))[0]
# Same method as above, just more verbose for the maintenance programmer.
# for i in xrange(line_count*sample_count): #row
# be_float = map.read(arrayName.itemsize) # arrayName.itemsize should be 4 for float32
# le_float = unpack('>f', be_float)[0] # > for big endian, < for little endian
# arrayName[0, i]= le_float
map.close()
return arrayName
print "Initializing the Amp HH HV, and Phase HH HV arrays..."
HHamp = np.ones((1, line_count*sample_count), dtype='float32')
HHphase = np.ones((1, line_count*sample_count), dtype='float32')
HVamp = np.ones((1, line_count*sample_count), dtype='float32')
HVphase = np.ones((1, line_count*sample_count), dtype='float32')
print "Ingesting HH_Amp..."
HHamp = mmapChannel(HHamp, 'ALPSRP042301700-P1.1__A.img', 0, line_count, sample_count)
print "Ingesting HH_phase..."
HHphase = mmapChannel(HHphase, 'ALPSRP042301700-P1.1__A.img', 1, line_count, sample_count)
print "Ingesting HV_AMP..."
HVamp = mmapChannel(HVamp, 'ALPSRP042301700-P1.1__A.img', 2, line_count, sample_count)
print "Ingesting HV_phase..."
HVphase = mmapChannel(HVphase, 'ALPSRP042301700-P1.1__A.img', 3, line_count, sample_count)
print "Reshaping...."
HHamp_orig = HHamp.reshape(line_count, -1)
HHphase_orig = HHphase.reshape(line_count, -1)
HVamp_orig = HVamp.reshape(line_count, -1)
HVphase_orig = HVphase.reshape(line_count, -1)
Chciałem dodać do tego, dla każdego, kto znajdzie ten post użyteczne. Uruchomienie oryginalnego kodu zajęło mi około 80 sekund. Uruchomienie rozwiązania zapewnionego przez Alexa Martelliego i JF Sebastiana trwa mniej niż sekundę. Program wywołujący tę funkcję robi to wiele razy. W związku z tym czas działania znacznie się zmniejszył. Dziękuję wam zarówno za pomoc, jak i za nauczenie mnie czegoś =) – Foofy