2013-01-07 13 views

Odpowiedz

8

Odpowiedź jest krótka zależy. W aplikacji, nad którą obecnie pracuję, znajduje się trochę informacji, których używamy do buforowania, aby poradzić sobie zarówno z opóźnieniem pobierania danych z Magazynu tabel, jak iz uwzględnieniem pożądanej liczby transakcji na sekundę.

Zaczynaliśmy od podawania informacji z Przechowywania tabeli i przenoszono je do pamięci podręcznej tylko wtedy, gdy dyktowały to nasze wymagania dotyczące wydajności. Poleciłbym podobne podejście: spraw, aby działało, a potem szybko.

+0

Dobra, dobra uwaga. Wielkie dzięki! – MaxWillmo

5

Oprócz tego, co Robert powiedział, należy również wziąć pod uwagę następujące punkty:

Windows Azure Storage Table pozwala na zapisanie do 100TB wielkości (w kawałkach). Na pierwszy rzut oka rozmiar danych może wydawać się przytłaczający. Pamięć tabel może być jednak podzielona na partycje. Każda partycja magazynu tabel może zostać przeniesiona na oddzielny serwer przez kontroler Azure, co zmniejsza obciążenie dowolnego serwera i poprawia wydajność.

Jeśli masz bardzo wysokie obciążenia aplikacji, buforują z częstymi wstawkami będzie bardzo szybko, a następnie rozpoczyna się proces eksmisji przedmiotów cache zbliżyć maksymalny rozmiar pamięci podręcznej. W większości przypadków częste wstawianie elementów pamięci podręcznej i częste procesy eksmisji w pamięci podręcznej skutkują pogorszeniem wydajności zamiast poprawy. Następnie należy zwiększyć maksymalny rozmiar pamięci podręcznej, co z kolei wpłynie na koszt aplikacji (czasami może to być blokowanie).

Wreszcie można uzyskać dostęp do danych magazynu Windows Azure za pomocą protokołu OData i zapytań LINQ z bibliotekami usług WCF Data Service .NET; nie masz tej umiejętności w Azure Cache.

Należy pamiętać, że te punkty mogą lub nie mogą być ważne w Twoim przypadku. Wszystko zależy od architektury systemu; spodziewane obciążenie itp

Mam nadzieję, że moja odpowiedź pomoże Ci w podejmowaniu decyzji dobry system architektury.

Powiązane problemy