Zasadniczo sprowadza się do następujących:
System, który jest naprawdę zoptymalizowane do działania uwzględnia kilka aspektów, takich jak losowego dostępu, rozmiaru strony pamięci, różne poziomy pamięci podręcznej procesora („in-memory”, .. .) itp.
To prowadzi do maksymalnego wykorzystania możliwości oferowanych przez RAM i HDD, co z kolei nie zapewnia doskonałej wydajności.
tradycyjny silnik, który jest zoptymalizowany pod kątem dostępu do systemu plików jest zwykle biorąc pod uwagę kilka aspektów istotnych dla plików/obsługa OS z plików itp
Nawet jeśli takie obciążenia silnika wszystko w swojej pamięci podręcznej (pamięć), to nadal działa na danych JAK JEŻELI jest na dysku, co ma sens, ponieważ kod musi działać w sytuacjach, w których nie wszystko pasuje do pamięci. Użycie tej samej implementacji w obu sytuacjach powoduje lepsze testowanie/stabilność/naprawianie błędów/konserwację itd. ALE prowadzi to do "nieużywania" wszystkiego, co powoduje, że dostęp do pamięci RAM różni się od dostępu do pliku/dysku. Taki silnik może być zwykle szybszy, jeśli zaimplementuje optymalizacje pamięci RAM, tak aby oferował w każdym świecie (RAM w porównaniu z dyskiem) najlepsze ... Nie jestem świadomy, że jakiś silnik to robi ...