2015-04-22 8 views
13

Na moim testowym ELK klastra, jestem napotykają następujący błąd podczas próby, aby zobaczyć dane z ostatniego tygodnia.elasticsearch błędy/Kibana „dane zbyt duże, dane za [@timestamp] byłby większy niż ograniczenie

Data too large, data for [@timestamp] would be larger than limit 

ostrzeżenie o odłamki upadających wydaje się być mylące, ponieważ narzędzia monitorujące elasticsearch kopf i head pokazują, że wszystkie odłamki pracują prawidłowo, a elastyczny klaster jest zielony.

enter image description here

Jeden użytkownik z grupy google do elastycznego wyszukiwania sugerował zwiększenie pamięci RAM. Zwiększyłem liczbę moich 3 węzłów do 8 GB z stertą 4.7 GB, ale problem nadal występuje. Generuję około 5 GB do 25 GB danych dziennie, z 30-dniową retencją.

Odpowiedz

31

Czyszczenie pamięci podręcznej na razie łagodzi objawy.

http://www.elastic.co/guide/en/elasticsearch/reference/current/indices-clearcache.html

Pogodne pojedynczy wskaźnik

curl -XPOST 'http://localhost:9200/twitter/_cache/clear' 

Pogodne wiele Wiadomości Finansowe

curl -XPOST 'http://localhost:9200/kimchy,elasticsearch/_cache/clear' 

curl -XPOST 'http://localhost:9200/_cache/clear' 

Albo jako sugerowane przez użytkownika w IRC. Ten wydaje się działać najlepiej.

curl -XPOST 'http://localhost:9200/_cache/clear' -d '{ "fielddata": "true" }' 
+0

Wpadłem na te same problemy i wyczyściłem pamięć podręczną. Nie jestem pewien, czy jest to coś, co należy robić okresowo. Dzięki! – Carlos

+0

To zadziałało! Dzięki! Nigdy nie widziałem tego problemu, mimo że korzystałem z ES od kilku lat ... bardzo dziwne. –

+0

Tak, wystąpił ten sam problem i wyczyściłem pamięć podręczną, a wszystko znowu działało. Awans i pytanie gwiazdkowe. – Gman

Powiązane problemy