日志级别
- CRITICAL 50
- ERROR 40
- WARNING 30
- INFO 20
- DEBUG 10
logging.basicConfig()函数中的具体参数含义
- filename:指定的文件名创建FiledHandler,这样日志会被存储在指定的文件中;
- filemode:文件打开方式,在指定了filename时使用这个参数,默认值为“w”还可指定为“a”;
- format:指定handler使用的日志显示格式;
- datefmt:指定日期时间格式。,格式参考strftime时间格式化(下文)
- level:设置rootlogger的日志级别
- stream:用指定的stream创建StreamHandler。可以指定输出到sys.stderr,sys.stdout或者文件,默认为sys.stderr。若同时列出了filename和stream两个参数,则stream参数会被忽略。
format参数用到的格式化信息
参数
描述
%(name)s
Logger的名字
%(levelno)s
数字形式的日志级别
%(levelname)s
文本形式的日志级别
%(pathname)s
调用日志输出函数的模块的完整路径名,可能没有
%(filename)s
调用日志输出函数的模块的文件名
%(module)s
调用日志输出函数的模块名
%(funcName)s
调用日志输出函数的函数名
%(lineno)d
调用日志输出函数的语句所在的代码行
%(created)f
当前时间,用UNIX标准的表示时间的浮 点数表示
%(relativeCreated)d
输出日志信息时的,自Logger创建以 来的毫秒数
%(asctime)s
字符串形式的当前时间。默认格式是 “2003-07-08 16:49:45,896”。逗号后面的是毫秒
%(thread)d
线程ID。可能没有
%(threadName)s
线程名。可能没有
%(process)d
进程ID。可能没有
%(message)s
用户输出的消息
使用logging打印日志到标准输出
import logging logging.debug('debug message') logging.info('info message') logging.warning('warning message')
使用logging.baseConfig()将日志输入到文件
import os logging.basicConfig( filename=os.path.join(os.getcwd(),'all.log'), level=logging.DEBUG, format='%(asctime)s %(filename)s : %(levelname)s %(message)s', # 定义输出log的格式 filemode='a', datefmt='%Y-%m-%d %A %H:%M:%S', ) logging.debug('this is a message')
自定义Logger
设置按照日志文件大小自动分割日志写入文件
import logging from logging import handlers class Logger(object): level_relations = { 'debug': logging.DEBUG, 'info': logging.INFO, 'warning': logging.WARNING, 'error': logging.ERROR, 'crit': logging.CRITICAL } def __init__(self, filename, level='info', when='D', backCount=3, fmt='%(asctime)s - %(pathname)s[line:%(lineno)d] - %(levelname)s: %(message)s'): self.logger = logging.getLogger(filename) format_str = logging.Formatter(fmt) # 设置日志格式 self.logger.setLevel(self.level_relations.get(level)) # 设置日志级别 # 向控制台输出日志 stream_handler = logging.StreamHandler() stream_handler.setFormatter(format_str) self.logger.addHandler(stream_handler) # 日志按文件大小写入文件 # 1MB = 1024 * 1024 bytes # 这里设置文件的大小为500MB rotating_file_handler = handlers.RotatingFileHandler( filename=filename, mode='a', maxBytes=1024 * 1024 * 500, backupCount=5, encoding='utf-8') rotating_file_handler.setFormatter(format_str) self.logger.addHandler(rotating_file_handler) log = Logger('all.log', level='info') log.logger.info('[测试log] hello, world')
按照间隔日期自动生成日志文件
import logging from logging import handlers class Logger(object): level_relations = { 'debug': logging.DEBUG, 'info': logging.INFO, 'warning': logging.WARNING, 'error': logging.ERROR, 'crit': logging.CRITICAL } def __init__(self, filename, level='info', when='D', backCount=3, fmt='%(asctime)s - %(pathname)s[line:%(lineno)d] - %(levelname)s: %(message)s'): self.logger = logging.getLogger(filename) format_str = logging.Formatter(fmt) # 设置日志格式 self.logger.setLevel(self.level_relations.get(level)) # 设置日志级别 # 往文件里写入 # 指定间隔时间自动生成文件的处理器 timed_rotating_file_handler = handlers.TimedRotatingFileHandler( filename=filename, when=when, backupCount=backCount, encoding='utf-8') # 实例化TimedRotatingFileHandler # interval是时间间隔,backupCount是备份文件的个数,如果超过这个个数,就会自动删除,when是间隔的时间单位,单位有以下几种: # S 秒 # M 分 # H 小时、 # D 天、 # W 每星期(interval==0时代表星期一) # midnight 每天凌晨 timed_rotating_file_handler.setFormatter(format_str) # 设置文件里写入的格式 self.logger.addHandler(timed_rotating_file_handler) # 往屏幕上输出 stream_handler = logging.StreamHandler() stream_handler.setFormatter(format_str) self.logger.addHandler(stream_handler) log = Logger('all.log', level='info') log.logger.info('[测试log] hello, world')
logging 模块在Flask中的使用
我在使用Flask的过程中看了很多Flask关于logging的文档,但使用起来不是很顺手,于是自己就根据Flask的官方文档写了如下的log模块,以便集成到Flask中使用。
restful api 项目目录:
. ├── apps_api │ ├── common │ ├── models │ └── resources ├── logs ├── migrations │ └── versions ├── static ├── templates ├── test └── utils └── app.py └── config.py └── exts.py └── log.py └── manage.py └── run.py └── README.md └── requirements.txt
log.py 文件
# -*- coding: utf-8 -*- import logging from flask.logging import default_handler import os from logging.handlers import RotatingFileHandler from logging import StreamHandler BASE_DIR = os.path.dirname(os.path.abspath(__file__)) LOG_PATH = os.path.join(BASE_DIR, 'logs') LOG_PATH_ERROR = os.path.join(LOG_PATH, 'error.log') LOG_PATH_INFO = os.path.join(LOG_PATH, 'info.log') LOG_PATH_ALL = os.path.join(LOG_PATH, 'all.log') # 日志文件最大 100MB LOG_FILE_MAX_BYTES = 100 * 1024 * 1024 # 轮转数量是 10 个 LOG_FILE_BACKUP_COUNT = 10 class Logger(object): def init_app(self, app): # 移除默认的handler app.logger.removeHandler(default_handler) formatter = logging.Formatter( '%(asctime)s [%(thread)d:%(threadName)s] [%(filename)s:%(module)s:%(funcName)s] ' '[%(levelname)s]: %(message)s' ) # 将日志输出到文件 # 1 MB = 1024 * 1024 bytes # 此处设置日志文件大小为500MB,超过500MB自动开始写入新的日志文件,历史文件归档 file_handler = RotatingFileHandler( filename=LOG_PATH_ALL, mode='a', maxBytes=LOG_FILE_MAX_BYTES, backupCount=LOG_FILE_BACKUP_COUNT, encoding='utf-8' ) file_handler.setFormatter(formatter) file_handler.setLevel(logging.INFO) stream_handler = StreamHandler() stream_handler.setFormatter(formatter) stream_handler.setLevel(logging.INFO) for logger in ( # 这里自己还可以添加更多的日志模块,具体请参阅Flask官方文档 app.logger, logging.getLogger('sqlalchemy'), logging.getLogger('werkzeug') ): logger.addHandler(file_handler) logger.addHandler(stream_handler)
在exts.py扩展文件中添加log模块
# encoding: utf-8 from log import Logger logger = Logger()
在app.py 文件中引入logger模块,这个文件是create_app的工厂模块。
# encoding: utf-8 from flask import Flask from config import CONFIG from exts import logger def create_app(): app = Flask(__name__) # 加载配置 app.config.from_object(CONFIG) # 初始化logger logger.init_app(app) return app
运行run.py
# -*- coding: utf-8 -*- from app import create_app app = create_app() if __name__ == '__main__': app.run()
$ python run.py * Serving Flask app "app" (lazy loading) * Environment: production WARNING: This is a development server. Do not use it in a production deployment. Use a production WSGI server instead. * Debug mode: on 2019-07-08 08:15:50,396 [140735687508864:MainThread] [_internal.py:_internal:_log] [INFO]: * Running on http://127.0.0.1:5000/ (Press CTRL+C to quit) 2019-07-08 08:15:50,397 [140735687508864:MainThread] [_internal.py:_internal:_log] [INFO]: * Restarting with stat 2019-07-08 08:15:50,748 [140735687508864:MainThread] [_internal.py:_internal:_log] [WARNING]: * Debugger is active! 2019-07-08 08:15:50,755 [140735687508864:MainThread] [_internal.py:_internal:_log] [INFO]: * Debugger PIN: 234-828-739
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
稳了!魔兽国服回归的3条重磅消息!官宣时间再确认!
昨天有一位朋友在大神群里分享,自己亚服账号被封号之后居然弹出了国服的封号信息对话框。
这里面让他访问的是一个国服的战网网址,com.cn和后面的zh都非常明白地表明这就是国服战网。
而他在复制这个网址并且进行登录之后,确实是网易的网址,也就是我们熟悉的停服之后国服发布的暴雪游戏产品运营到期开放退款的说明。这是一件比较奇怪的事情,因为以前都没有出现这样的情况,现在突然提示跳转到国服战网的网址,是不是说明了简体中文客户端已经开始进行更新了呢?
更新日志
- 小骆驼-《草原狼2(蓝光CD)》[原抓WAV+CUE]
- 群星《欢迎来到我身边 电影原声专辑》[320K/MP3][105.02MB]
- 群星《欢迎来到我身边 电影原声专辑》[FLAC/分轨][480.9MB]
- 雷婷《梦里蓝天HQⅡ》 2023头版限量编号低速原抓[WAV+CUE][463M]
- 群星《2024好听新歌42》AI调整音效【WAV分轨】
- 王思雨-《思念陪着鸿雁飞》WAV
- 王思雨《喜马拉雅HQ》头版限量编号[WAV+CUE]
- 李健《无时无刻》[WAV+CUE][590M]
- 陈奕迅《酝酿》[WAV分轨][502M]
- 卓依婷《化蝶》2CD[WAV+CUE][1.1G]
- 群星《吉他王(黑胶CD)》[WAV+CUE]
- 齐秦《穿乐(穿越)》[WAV+CUE]
- 发烧珍品《数位CD音响测试-动向效果(九)》【WAV+CUE】
- 邝美云《邝美云精装歌集》[DSF][1.6G]
- 吕方《爱一回伤一回》[WAV+CUE][454M]