Ecosyste.ms: Awesome
An open API service indexing awesome lists of open source software.
https://github.com/songcser/sanic-ms
基于sanic的微服务基础架构
https://github.com/songcser/sanic-ms
aiohttp aiohttp-client asyncio microservice peewee sanic swagger unittest zipkin
Last synced: about 1 month ago
JSON representation
基于sanic的微服务基础架构
- Host: GitHub
- URL: https://github.com/songcser/sanic-ms
- Owner: songcser
- Created: 2017-08-31T08:36:22.000Z (over 7 years ago)
- Default Branch: master
- Last Pushed: 2018-11-30T15:21:26.000Z (about 6 years ago)
- Last Synced: 2024-08-02T22:21:52.807Z (4 months ago)
- Topics: aiohttp, aiohttp-client, asyncio, microservice, peewee, sanic, swagger, unittest, zipkin
- Language: Python
- Homepage:
- Size: 468 KB
- Stars: 395
- Watchers: 18
- Forks: 116
- Open Issues: 3
-
Metadata Files:
- Readme: README.md
Awesome Lists containing this project
- awesome-list-microservice - sanic-ms
README
# Sanic Micro Service
基于sanic的微服务基础架构
## Introduce
使用python做web开发面临的一个最大的问题就是性能,在解决C10K问题上显的有点吃力。有些异步框架Tornado、Twisted、Gevent 等就是为了解决性能问题。这些框架在性能上有些提升,但是也出现了各种古怪的问题难以解决。
在python3.6中,官方的异步协程库asyncio正式成为标准。在保留便捷性的同时对性能有了很大的提升,已经出现许多的异步框架使用asyncio。
使用较早的异步框架是aiohttp,它提供了server端和client端,对asyncio做了很好的封装。但是开发方式和最流行的微框架flask不同,flask开发简单,轻量,高效。将两者结合起来就有了sanic。
Sanic框架是和Flask相似异步协程框架,简单轻量,并且性能很高。本项目就是以sanic为基础搭建的微服务框架。微服务最近很火,它解决了复杂性问题,提高开发效率,便于部署等优点。
正是结合这些优点, 以sanic为基础,集成多个流行的库搭建微服务框架。
## Feature
* **使用sanic异步框架,简单,轻量,高效。**
* **使用uvloop为核心引擎,使sanic在很多情况下单机并发甚至不亚于Golang。**
* **使用asyncpg为数据库驱动,进行数据库连接,执行sql语句执行。**
* **使用aiohttp为Client,对其他微服务进行访问。**
* **使用peewee为ORM,但是只是用来做模型设计和migration。**
* **使用opentracing为分布式追踪系统。**
* **使用unittest做单元测试,并且使用mock来避免访问其他微服务。**
* **使用swagger做API标准,能自动生成API文档。**## Usage
[Example](https://github.com/songcser/sanic-ms/tree/master/examples)
#### Swagger API
![image](https://github.com/songcser/sanic-ms/raw/master/examples/images/1514528294957.jpg)#### Zipkin Server
![image](https://github.com/songcser/sanic-ms/raw/master/examples/images/1514528423339.jpg)
![image](https://github.com/songcser/sanic-ms/raw/master/examples/images/1514528479787.jpg)## Config
> 设置配置文件和Django相似,通过设置环境变量值SANIC_CONFIG_MODULE
```
export SANIC_CONFIG_MODULE='mysite.configs'
```## Server
> 使用sanic异步框架,有较高的性能,但是使用不当会造成blocking, 对于有IO请求的都要选用异步库。**添加库要慎重**。
> sanic使用uvloop异步驱动,uvloop基于libuv使用Cython编写,性能比nodejs还要高。功能说明:
#### Before Server Start
* 创建DB连接池
* 创建Client连接
* 创建queue, 用于日志追踪
* 创建opentracing.tracer进行日志追踪#### Middleware
* 处理跨域请求
* 创建span, 用于日志追踪
* 对response进行封装,统一格式#### Error Handler
对抛出的异常进行处理,返回统一格式
#### Task
创建task消费queue中对span,用于日志追踪
#### Asynchronous Handler
由于使用的是异步框架,可以将一些IO请求并行处理Example:
```
async def async_request(datas):
# async handler request
results = await asyncio.gather(*[data[2] for data in datas])
for index, obj in enumerate(results):
data = datas[index]
data[0][data[1]] = results[index]@user_bp.get('/')
@doc.summary("get user info")
@doc.description("get user info by id")
@doc.produces(Users)
async def get_users_list(request, id):
async with request.app.db.acquire(request) as cur:
record = await cur.fetch(
""" SELECT * FROM users WHERE id = $1 """, id)
datas = [
[record, 'city_id', get_city_by_id(request, record['city_id'])]
[record, 'role_id', get_role_by_id(request, record['role_id'])]
]
await async_request(datas)
return record
```
get_city_by_id, get_role_by_id是并行处理。#### 相关连接
[sanic](https://github.com/channelcat/sanic)## Model & Migration
> Peewee is a simple and small ORM. It has few (but expressive) concepts, making it easy to learn and intuitive to use。
>
> ORM使用peewee, 只是用来做模型设计和migration, 数据操作使用asyncpg。Example:
```
# models.pyclass Users(Model):
id = PrimaryKeyField()
create_time = DateTimeField(verbose_name='create time',
default=datetime.datetime.utcnow)
name = CharField(max_length=128, verbose_name="user's name")
age = IntegerField(null=False, verbose_name="user's age")
sex = CharField(max_length=32, verbose_name="user's sex")
city_id = IntegerField(verbose_name='city for user', help_text=CityApi)
role_id = IntegerField(verbose_name='role for user', help_text=RoleApi)class Meta:
db_table = 'users'# migrations.py
from sanicms.migrations import MigrationModel, info, db
class UserMigration(MigrationModel):
_model = Users# @info(version="v1")
# def migrate_v1(self):
# migrate(self.add_column('sex'))def migrations():
try:
um = UserMigration()
with db.transaction():
um.auto_migrate()
print("Success Migration")
except Exception as e:
raise eif __name__ == '__main__':
migrations()
```* 运行命令 python migrations.py
* migrate_v1函数添加字段sex, 在BaseModel中要先添加name字段
* info装饰器会创建表migrate_record来记录migrate,version每个model中必须唯一,使用version来记录是否执行过,还可以记录author,datetime
* migrate函数必须以**migrate_**开头#### 相关连接
[peewee](http://docs.peewee-orm.com/en/latest/)
## DB
> **asyncpg is the fastest driver among common Python, NodeJS and Go implementations**
>
> 使用asyncpg为数据库驱动, 对数据库连接进行封装, 执行数据库操作。
>
> 不使用ORM做数据库操作,一个原因是性能,ORM会有性能的损耗,并且无法使用asyncpg高性能库。另一个是单个微服务是很简单的,表结构不会很复杂,简单的SQL语句就可以处理来,没必要引入ORM。Example:
```
sql = "SELECT * FROM users WHERE name=$1"
name = "test"
async with request.app.db.acquire(request) as cur:
data = await cur.fetchrow(sql, name)async with request.app.db.transaction(request) as cur:
data = await cur.fetchrow(sql, name)
```* acquire() 函数为非事务, 对于只涉及到查询的使用非事务,可以提高查询效率
* tansaction() 函数为事务操作,对于增删改必须使用事务操作
* 传入request参数是为了获取到span,用于日志追踪
* **TODO** 数据库读写分离#### 相关连接
[asyncpg](https://github.com/MagicStack/asyncpg)
[benchmarks](https://magic.io/blog/asyncpg-1m-rows-from-postgres-to-python/)## Client
> 使用aiohttp中的client,对客户端进行了简单的封装,访问其他微服务。
> Don’t create a session per request. Most likely you need a session per application which performs all requests altogether.
> A session contains a connection pool inside, connection reusage and keep-alives (both are on by default) may speed up total performance.Example:
```
@app.listener('before_server_start')
async def before_srver_start(app, loop):
app.client = Client(loop, url='http://host:port')async def get_role_by_id(request, id):
cli = request.app.client.cli(request)
async with cli.get('/cities/{}'.format(id)) as res:
return await res.json()@app.listener('before_server_stop')
async def before_server_stop(app, loop):
app.client.close()```
对于访问不同的微服务可以创建多个不同的client,这样每个client都会keep-alives
#### 相关连接
[aiohttp](http://aiohttp.readthedocs.io/en/stable/client.html)
## LOG & Distributed Tracing System
> 使用官方logging, 配置文件为logging.yml, sanic版本要0.6.0及以上。JsonFormatter将日志转成json格式,用于输入到ES
>
> Enter OpenTracing: by offering consistent, expressive, vendor-neutral APIs for popular platforms, OpenTracing makes it easy for developers to add (or switch) tracing implementations with an O(1) configuration change. OpenTracing also offers a lingua franca for OSS instrumentation and platform-specific tracing helper libraries. Please refer to the Semantic Specification.### 装饰器logger
```
@logger(type='method', category='test', detail='detail', description="des", tracing=True, level=logging.INFO)
async def get_city_by_id(request, id):
cli = request.app.client.cli(request)
```* type: 日志类型,如 method, route
* category: 日志类别,默认为app的name
* detail: 日志详细信息
* description: 日志描述,默认为函数的注释
* tracing: 日志追踪,默认为True
* level: 日志级别,默认为INFO### 分布式追踪系统
* OpenTracing是以Dapper,Zipkin等分布式追踪系统为依据, 为分布式追踪建立了统一的标准。
* Opentracing跟踪每一个请求,记录请求所经过的每一个微服务,以链条的方式串联起来,对分析微服务的性能瓶颈至关重要。
* 使用opentracing框架,但是在输出时转换成zipkin格式。 因为大多数分布式追踪系统考虑到性能问题,都是使用的thrift进行通信的,本着简单,Restful风格的精神,没有使用RPC通信。以日志的方式输出, 可以使用fluentd, logstash等日志收集再输入到Zipkin。Zipkin是支持HTTP输入的。
* 生成的span先无阻塞的放入queue中,在task中消费队列的span。后期可以添加上采样频率。
* 对于DB,Client都加上了tracing#### 相关连接
[opentracing](https://github.com/opentracing/opentracing-python)
[zipkin](https://github.com/openzipkin/zipkin)
[jaeger](https://uber.github.io/jaeger/)## API
> api文档使用swagger标准。
Example:
```
from sanicms import doc@user_bp.post('/')
@doc.summary('create user')
@doc.description('create user info')
@doc.consumes(Users)
@doc.produces({'id': int})
async def create_user(request):
data = request['data']
async with request.app.db.transaction(request) as cur:
record = await cur.fetchrow(
""" INSERT INTO users(name, age, city_id, role_id)
VALUES($1, $2, $3, $4, $5)
RETURNING id
""", data['name'], data['age'], data['city_id'], data['role_id']
)
return {'id': record['id']}
```* summary: api概要
* description: 详细描述
* consumes: request的body数据
* produces: response的返回数据
* tag: API标签
* 在consumes和produces中传入的参数可以是peewee的model,会解析model生成API数据, 在field字段的help_text参数来表示引用对象
* http://host:ip/openapi/spec.json 获取生成的json数据#### 相关连接
[swagger](https://swagger.io/)
## Response
在返回时,不要返回response,直接返回原始数据,会在Middleware中对返回的数据进行处理,返回统一的格式,具体的格式可以[查看](https://gist.github.com/songcser/ae8af65f33f34f09f265879e107cb584)
## Unittest
> 单元测试使用unittest
Example:
```
from sanicms.tests import APITestCase
from service.server import appclass TestCase(APITestCase):
_app = app
_blueprint = 'visit'def setUp(self):
super(TestCase, self).setUp()
self._mock.get('/cities/1',
payload={'id': 1, 'name': 'shanghai'})
self._mock.get('/roles/1',
payload={'id': 1, 'name': 'shanghai'})def test_create_user(self):
data = {
'name': 'test',
'age': 2,
'city_id': 1,
'role_id': 1,
}
res = self.client.create_user(data=data)
body = ujson.loads(res.text)
self.assertEqual(res.status, 200)
```* 其中_blueprint为blueprint名称
* 在setUp函数中,使用_mock来注册mock信息, 这样就不会访问真实的服务器, payload为返回的body信息
* 使用client变量调用各个函数, data为body信息,params为路径的参数信息,其他参数是route的参数### coverage
```
coverage erase
coverage run --source . -m sanicms tests
coverage xml -o reports/coverage.xml
coverage2clover -i reports/coverage.xml -o reports/clover.xml
coverage html -d reports
```* coverage2colver 是将coverage.xml 转换成 clover.xml,bamboo需要的格式是clover的。
#### 相关连接
[unittest](https://docs.python.org/3/library/unittest.html)
[coverage](https://coverage.readthedocs.io/en/coverage-4.4.1/)
## Exception> 使用 app.error_handler = CustomHander() 对抛出的异常进行处理
Example:
```
from sanicms.exception import ServerError@visit_bp.delete('/users/')
async def del_user(request, id):
raise ServerError(error='内部错误',code='10500', message="msg")
```* code: 错误码,无异常时为0,其余值都为异常
* message: 状态码信息
* error: 自定义错误信息
* status_code: http状态码,使用标准的http状态码