2011-12-11 10 views
40

Może ktoś sugerują sposób w Pythonie robić zalogowaniu się:Python, chcesz zalogowaniu z obrotów dziennika i kompresji

  • dziennika obrotów codziennie
  • kompresję dzienników, gdy są obracane
  • opcjonalnie - usunąć najstarszy plik dziennika, aby zachować X MB wolnego miejsca
  • opcjonalnie - logi SFTP do serwera

Dzięki za wszelkie odpowiedzi, Fred

+0

rotacja? Czy masz na myśli uruchamianie skryptu codziennie? Jeśli tak, proponuję użyć zadania crona. – Griffin

+0

Moja aplikacja będzie działać i logować się w sposób ciągły, dlatego chcę, aby system codziennie uruchamiał nowy plik dziennika –

+2

powiązany [Python, wydanie 13516: stare pliki dziennika Gzip w programach do obracania] (http://bugs.python.org/issue13516) wspomina o przykładzie [TimedCompressedRotatingFileHandler] (http://code.activestate.com/recipes/502265-timedcompressedrotatingfilehandler/) – jfs

Odpowiedz

57
  • dziennika obrót codziennie: Użyj kompresji do TimedRotatingFileHandler
  • dzienników: Ustaw parametr encoding='bz2'. (Uwaga: "trik" działa tylko w Pythonie 2. "bz2" nie jest już uważany za kodowanie w Pythonie 3.)
  • opcjonalnie - usuń najstarszy plik dziennika, aby zachować X MB wolnej pamięci. Można (pośrednio) zorganizować to za pomocą RotatingFileHandler. Po ustawieniu parametru maxBytes plik dziennika będzie się kręcić po osiągnięciu określonego rozmiaru. Ustawiając parametr backupCount, można kontrolować liczbę zachowywanych najazdów. Te dwa parametry razem pozwalają kontrolować maksymalną ilość miejsca zużywaną przez pliki dziennika. Prawdopodobnie możesz podklasować TimeRotatingFileHandler, aby uwzględnić w nim również to zachowanie.

Tak dla zabawy, oto jak można podklasy TimeRotatingFileHandler. Po uruchomieniu poniższego skryptu będzie on zapisywał pliki dziennika do /tmp/log_rotate*.

Przy niewielkiej wartości dla time.sleep (np. 0,1) pliki dziennika szybko się uzupełniają, osiągają limit maks. I są następnie przewracane.

Przy dużym numerze time.sleep (takim jak 1.0) pliki dziennika wypełniają się powoli, limit maxBytes nie zostaje osiągnięty, ale mimo to przewijają się one po osiągnięciu przedziału czasu (10 sekund).

Cały poniższy kod pochodzi z logging/handlers.py. Po prostu zakomunikowałem TimeRotatingFileHandler za pomocą programu RotatingFileHandler w możliwie najprostszy sposób.

import time 
import re 
import os 
import stat 
import logging 
import logging.handlers as handlers 


class SizedTimedRotatingFileHandler(handlers.TimedRotatingFileHandler): 
    """ 
    Handler for logging to a set of files, which switches from one file 
    to the next when the current file reaches a certain size, or at certain 
    timed intervals 
    """ 

    def __init__(self, filename, maxBytes=0, backupCount=0, encoding=None, 
       delay=0, when='h', interval=1, utc=False): 
     handlers.TimedRotatingFileHandler.__init__(
      self, filename, when, interval, backupCount, encoding, delay, utc) 
     self.maxBytes = maxBytes 

    def shouldRollover(self, record): 
     """ 
     Determine if rollover should occur. 

     Basically, see if the supplied record would cause the file to exceed 
     the size limit we have. 
     """ 
     if self.stream is None:     # delay was set... 
      self.stream = self._open() 
     if self.maxBytes > 0:     # are we rolling over? 
      msg = "%s\n" % self.format(record) 
      # due to non-posix-compliant Windows feature 
      self.stream.seek(0, 2) 
      if self.stream.tell() + len(msg) >= self.maxBytes: 
       return 1 
     t = int(time.time()) 
     if t >= self.rolloverAt: 
      return 1 
     return 0 


def demo_SizedTimedRotatingFileHandler(): 
    log_filename = '/tmp/log_rotate' 
    logger = logging.getLogger('MyLogger') 
    logger.setLevel(logging.DEBUG) 
    handler = SizedTimedRotatingFileHandler(
     log_filename, maxBytes=100, backupCount=5, 
     when='s', interval=10, 
     # encoding='bz2', # uncomment for bz2 compression 
    ) 
    logger.addHandler(handler) 
    for i in range(10000): 
     time.sleep(0.1) 
     logger.debug('i=%d' % i) 

demo_SizedTimedRotatingFileHandler() 
+0

Dzięki, świetna odpowiedź –

+0

Najlepsze rzeczy robi się dla zabawy! Dzięki –

+0

Parametr 'mode' w' __init __() 'jest przypisany, ale nigdy nie jest używany. – mshsayem

10

Oprócz odpowiedzi unutbu za: oto jak zmodyfikować TimedRotatingFileHandler skompresować za pomocą plików zip.

import logging 
import logging.handlers 
import zipfile 
import codecs 
import sys 
import os 
import time 
import glob 


class TimedCompressedRotatingFileHandler(logging.handlers.TimedRotatingFileHandler): 
    """ 
    Extended version of TimedRotatingFileHandler that compress logs on rollover. 
    """ 
    def doRollover(self): 
     """ 
     do a rollover; in this case, a date/time stamp is appended to the filename 
     when the rollover happens. However, you want the file to be named for the 
     start of the interval, not the current time. If there is a backup count, 
     then we have to get a list of matching filenames, sort them and remove 
     the one with the oldest suffix. 
     """ 

     self.stream.close() 
     # get the time that this sequence started at and make it a TimeTuple 
     t = self.rolloverAt - self.interval 
     timeTuple = time.localtime(t) 
     dfn = self.baseFilename + "." + time.strftime(self.suffix, timeTuple) 
     if os.path.exists(dfn): 
      os.remove(dfn) 
     os.rename(self.baseFilename, dfn) 
     if self.backupCount > 0: 
      # find the oldest log file and delete it 
      s = glob.glob(self.baseFilename + ".20*") 
      if len(s) > self.backupCount: 
       s.sort() 
       os.remove(s[0]) 
     #print "%s -> %s" % (self.baseFilename, dfn) 
     if self.encoding: 
      self.stream = codecs.open(self.baseFilename, 'w', self.encoding) 
     else: 
      self.stream = open(self.baseFilename, 'w') 
     self.rolloverAt = self.rolloverAt + self.interval 
     if os.path.exists(dfn + ".zip"): 
      os.remove(dfn + ".zip") 
     file = zipfile.ZipFile(dfn + ".zip", "w") 
     file.write(dfn, os.path.basename(dfn), zipfile.ZIP_DEFLATED) 
     file.close() 
     os.remove(dfn) 
11

Innym sposobem kompresji pliku dziennika podczas obracania (nowego w Pythonie 3.3) korzysta BaseRotatingHandler (i wszystkie dziedziczone) atrybut class rotator na przykład:

import gzip 
import os 
import logging 
import logging.handlers 

class GZipRotator: 
    def __call__(self, source, dest): 
     os.rename(source, dest) 
     f_in = open(dest, 'rb') 
     f_out = gzip.open("%s.gz" % dest, 'wb') 
     f_out.writelines(f_in) 
     f_out.close() 
     f_in.close() 
     os.remove(dest) 

logformatter = logging.Formatter('%(asctime)s;%(levelname)s;%(message)s') 
log = logging.handlers.TimedRotatingFileHandler('debug.log', 'midnight', 1, backupCount=5) 
log.setLevel(logging.DEBUG) 
log.setFormatter(logformatter) 
log.rotator = GZipRotator() 

logger = logging.getLogger('main') 
logger.addHandler(log)  
logger.setLevel(logging.DEBUG) 

.... 

Więcej można zobaczyć here.

+2

Próbka z [książkę kucharską dotyczącą wylogowywania] (https://docs.python.org/3/howto/logging-cookbook.html#using-a-rotator-and-namer-to-customize-log-rotation-processing) jest IMHO nieco czystszy, oddzielając nazwę od kompresji (ale +1 dla wskaźnika) – eddygeek

0

Aby skopiować plik gzip skopiowany plik (używając czasu epoki), a następnie oczyszczaniu istniejącego pliku w taki sposób, aby nie zafałszować moduł rejestrowania:

import gzip 
import logging 
import os 
from shutil import copy2 
from time import time 

def logRoll(logfile_name): 
    log_backup_name = logfile_name + '.' + str(int(time())) 
    try: 
     copy2(logfile_name, log_backup_name) 
    except IOError, err: 
     logging.debug(' No logfile to roll') 
     return 
    f_in = open(log_backup_name, 'rb') 
    f_out = gzip.open(log_backup_name + '.gz', 'wb') 
    f_out.writelines(f_in) 
    f_out.close() 
    f_in.close() 
    os.remove(log_backup_name) 
    f=open(logfile_name, 'w') 
    f.close() 
2

myślę, że to zbyt późno dołączyć do imprezy, ale oto, co zrobiłem. Stworzyłem nową klasę dziedziczącą klasę logging.handlers.RotatingFileHandler i dodałem kilka linii, aby zgasić plik przed jego przeniesieniem.

https://github.com/rkreddy46/python_code_reference/blob/master/compressed_log_rotator.py

#!/usr/bin/env python 

# Import all the needed modules 
import logging.handlers 
import sys 
import time 
import gzip 
import os 
import shutil 
import random 
import string 

__version__ = 1.0 
__descr__ = "This logic is written keeping in mind UNIX/LINUX/OSX platforms only" 


# Create a new class that inherits from RotatingFileHandler. This is where we add the new feature to compress the logs 
class CompressedRotatingFileHandler(logging.handlers.RotatingFileHandler): 
    def doRollover(self): 
     """ 
     Do a rollover, as described in __init__(). 
     """ 
     if self.stream: 
      self.stream.close() 
     if self.backupCount > 0: 
      for i in range(self.backupCount - 1, 0, -1): 
       sfn = "%s.%d.gz" % (self.baseFilename, i) 
       dfn = "%s.%d.gz" % (self.baseFilename, i + 1) 
       if os.path.exists(sfn): 
        # print "%s -> %s" % (sfn, dfn) 
        if os.path.exists(dfn): 
         os.remove(dfn) 
        os.rename(sfn, dfn) 
      dfn = self.baseFilename + ".1.gz" 
      if os.path.exists(dfn): 
       os.remove(dfn) 
      # These two lines below are the only new lines. I commented out the os.rename(self.baseFilename, dfn) and 
      # replaced it with these two lines. 
      with open(self.baseFilename, 'rb') as f_in, gzip.open(dfn, 'wb') as f_out: 
       shutil.copyfileobj(f_in, f_out) 
      # os.rename(self.baseFilename, dfn) 
      # print "%s -> %s" % (self.baseFilename, dfn) 
     self.mode = 'w' 
     self.stream = self._open() 

# Specify which file will be used for our logs 
log_filename = "/Users/myname/Downloads/test_logs/sample_log.txt" 

# Create a logger instance and set the facility level 
my_logger = logging.getLogger() 
my_logger.setLevel(logging.DEBUG) 

# Create a handler using our new class that rotates and compresses 
file_handler = CompressedRotatingFileHandler(filename=log_filename, maxBytes=1000000, backupCount=10) 

# Create a stream handler that shows the same log on the terminal (just for debug purposes) 
view_handler = logging.StreamHandler(stream=sys.stdout) 

# Add all the handlers to the logging instance 
my_logger.addHandler(file_handler) 
my_logger.addHandler(view_handler) 

# This is optional to beef up the logs 
random_huge_data = "".join(random.choice(string.ascii_letters) for _ in xrange(10000)) 

# All this code is user-specific, write your own code if you want to play around 
count = 0 
while True: 
    my_logger.debug("This is the message number %s" % str(count)) 
    my_logger.debug(random_huge_data) 
    count += 1 
    if count % 100 == 0: 
     count = 0 
     time.sleep(2) 
0

Myślę, że najlepszym rozwiązaniem będzie użycie bieżącej realizacji TimedRotatingFileHandler i po zmianie nazwy pliku dziennika wersji obróconej tylko kompresować go:

import zipfile 
import os 
from logging.handlers import TimedRotatingFileHandler 


class TimedCompressedRotatingFileHandler(TimedRotatingFileHandler): 
    """ 
    Extended version of TimedRotatingFileHandler that compress logs on rollover. 
    """ 
    def find_last_rotated_file(self): 
     dir_name, base_name = os.path.split(self.baseFilename) 
     file_names = os.listdir(dir_name) 
     result = [] 
     prefix = '{}.20'.format(base_name) # we want to find a rotated file with eg filename.2017-12-12... name 
     for file_name in file_names: 
      if file_name.startswith(prefix) and not file_name.endswith('.zip'): 
       result.append(file_name) 
     result.sort() 
     return result[0] 

    def doRollover(self): 
     super(TimedCompressedRotatingFileHandler, self).doRollover() 

     dfn = self.find_last_rotated_file() 
     dfn_zipped = '{}.zip'.format(dfn) 
     if os.path.exists(dfn_zipped): 
      os.remove(dfn_zipped) 
     with zipfile.ZipFile(dfn_zipped, 'w') as f: 
      f.write(dfn, dfn_zipped, zipfile.ZIP_DEFLATED) 
     os.remove(dfn)