2011-11-06 9 views

Odpowiedz

6

Zasadniczo sprowadza się do następujących:

System, który jest naprawdę zoptymalizowane do działania uwzględnia kilka aspektów, takich jak losowego dostępu, rozmiaru strony pamięci, różne poziomy pamięci podręcznej procesora („in-memory”, .. .) itp.

To prowadzi do maksymalnego wykorzystania możliwości oferowanych przez RAM i HDD, co z kolei nie zapewnia doskonałej wydajności.

tradycyjny silnik, który jest zoptymalizowany pod kątem dostępu do systemu plików jest zwykle biorąc pod uwagę kilka aspektów istotnych dla plików/obsługa OS z plików itp

Nawet jeśli takie obciążenia silnika wszystko w swojej pamięci podręcznej (pamięć), to nadal działa na danych JAK JEŻELI jest na dysku, co ma sens, ponieważ kod musi działać w sytuacjach, w których nie wszystko pasuje do pamięci. Użycie tej samej implementacji w obu sytuacjach powoduje lepsze testowanie/stabilność/naprawianie błędów/konserwację itd. ALE prowadzi to do "nieużywania" wszystkiego, co powoduje, że dostęp do pamięci RAM różni się od dostępu do pliku/dysku. Taki silnik może być zwykle szybszy, jeśli zaimplementuje optymalizacje pamięci RAM, tak aby oferował w każdym świecie (RAM w porównaniu z dyskiem) najlepsze ... Nie jestem świadomy, że jakiś silnik to robi ...

Powiązane problemy