An open API service indexing awesome lists of open source software.

https://github.com/codinghanya/workspace

workspace是基于C++11的轻量级异步执行框架,支持:通用任务异步并发执行、优先级任务调度、自适应动态线程池、高效静态线程池、异常处理机制等。
https://github.com/codinghanya/workspace

concise concurrency cpp11 easy-to-use framework high-performance sfinae stable threadpool

Last synced: 25 days ago
JSON representation

workspace是基于C++11的轻量级异步执行框架,支持:通用任务异步并发执行、优先级任务调度、自适应动态线程池、高效静态线程池、异常处理机制等。

Awesome Lists containing this project

README

        

# workspace

**workspace**是基于C++11的轻量级异步执行框架,支持:通用任务异步执行、优先级任务调度、自适应动态线程池、高效静态线程池、异常处理机制等。

## 目录

- [workspace](#workspace)
- [目录](#目录)
- [特点](#特点)
- [主要模块](#主要模块)
- [**workbranch**](#workbranch)
- [**supervisor**](#supervisor)
- [**workspace**](#workspace-1)
- [辅助模块](#辅助模块)
- [futures](#futures)
- [benchmark](#benchmark)
- [空跑测试](#空跑测试)
- [延迟测试](#延迟测试)
- [如何使用](#如何使用)
- [生成doxygen文档](#生成doxygen文档)
- [简单使用](#简单使用)
- [运行已有实例(以example为例)](#运行已有实例以example为例)
- [安装到系统(支持Win/Linux/Mac)](#安装到系统支持winlinuxmac)
- [注意事项](#注意事项)
- [雷区](#雷区)
- [接口安全性](#接口安全性)
- [时间单位](#时间单位)
- [其它](#其它)
- [参考书目](#参考书目)
- [联系我](#联系我)

## 特点

- 轻量的:Header-Only, 接口简单。
- 高效的:超轻量级任务支持异步顺序执行,提高了框架的并发性能。
- 灵活的:支持多种任务类型、动态线程调整、可通过workspace构建不同的池模型。
- 稳定的:封装function_实现小任务优化减少动态内存申请、拥有良好的异步线程异常处理机制。
- 兼容性:纯C++11实现,跨平台,且兼容C++11以上版本。

## 主要模块

### **workbranch**

**workbranch**(工作分支)是动态线程池的抽象,内置了一条线程安全的**任务队列**用于同步任务。其管理的每一条异步工作线程被称为**worker**,负责从任务队列不断获取任务并执行。(以下示例按顺序置于`workspace/example/`)

让我们先简单地提交一点任务,当你的任务带有返回值时,workbranch会返回一个std::future,否则返回void。

```c++
#include

int main() {
// 2 threads
wsp::workbranch br(2);
// return void
br.submit([]{ std::cout<<"hello world"<
auto result = br.submit([]{ return 2023; });
std::cout<<"Got "<

当你有一个任务并且你希望它能尽快被执行时,你可以指定该任务的类型为`urgent`,如下:

```C++
#include

int main() {
// 1 threads
wsp::workbranch br;
br.submit([]{ std::cout<<"task B done\n";}); // normal task
br.submit([]{ std::cout<<"task A done\n";}); // urgent task
br.wait_tasks(); // wait for tasks done (timeout: no limit)
}
```
在这里我们通过指定任务类型为`wsp::task::urg`,来提高任务的优先级。最终
在我的机器上:

```shell
jack@xxx:~/workspace/example/build$ ./e2
task A done
task B done
```
在这里我们不能保证`task A`一定会被先执行,因为当我们提交`task A`的时候,`task B`可能已经在执行中了。`urgent`标签可以让任务被插入到队列头部,但无法改变已经在执行的任务。

假如你有几个轻量异步任务,执行他们只需要**非常短暂**的时间。同时,按照**顺序执行**它们对你来说没有影响,甚至正中你下怀。那么你可以把任务类型指定为`sequence`,以便提交一个**任务序列**。这个任务序列会被单个线程顺序执行:

```c++
#include

int main() {
wsp::workbranch br;
// sequence tasks
br.submit([]{std::cout<<"task 1 done\n";},
[]{std::cout<<"task 2 done\n";},
[]{std::cout<<"task 3 done\n";},
[]{std::cout<<"task 4 done\n";});
// wait for tasks done (timeout: no limit)
br.wait_tasks();
}
```
任务序列会被打包成一个较大的任务,以此来减轻框架同步任务的负担,提高整体的并发性能。

当任务中抛出了一个异常,workbranch有两种处理方式:A-将其捕获并输出到终端 B-将其捕获并通过std::future传递到主线程。第二种需要你提交一个**带返回值**的任务。
```C++
#include
// self-defined
class excep: public std::exception {
const char* err;
public:
excep(const char* err): err(err) {}
const char* what() const noexcept override {
return err;
}
};
int main() {
wsp::workbranch wbr;
wbr.submit([]{ throw std::logic_error("A logic error"); }); // log error
wbr.submit([]{ throw std::runtime_error("A runtime error"); }); // log error
wbr.submit([]{ throw excep("XXXX");}); // log error

auto future1 = wbr.submit([]{ throw std::bad_alloc(); return 1; }); // catch error
auto future2 = wbr.submit([]{ throw excep("YYYY"); return 2; }); // catch error
try {
future1.get();
} catch (std::exception& e) {
std::cerr<<"Caught error: "< 0`)。
2. 系统处于等待状态(`is_waiting`)。
3. 系统正在销毁(`destructing`)。
- 响应延迟:
响应延迟较高,因为线程在阻塞状态下无法立即响应新任务。必须依赖外部通知(如 `notify_one()` 或 `notify_all()`)来唤醒线程。
- CPU 占用:
低,因为线程完全阻塞,不占用任何 CPU 资源,直到被唤醒。

---

### **supervisor**

supervisor是异步管理者线程的抽象,负责监控workbranch的负载情况并进行动态调整。它允许你在每一次调控workbranch之后执行一个小任务,你可以用来**写日志**或者做一些其它调控等。

每一个supervisor可以管理多个workbranch。此时workbranch之间共享supervisor的所有设定。

```c++
#include

int main() {
wsp::workbranch br1(2);
wsp::workbranch br2(2);

// 2 <= thread number <= 4
// time interval: 1000 ms
wsp::supervisor sp(2, 4, 1000);

sp.set_tick_cb([&br1, &br2]{
auto now = std::chrono::system_clock::now();
std::time_t timestamp = std::chrono::system_clock::to_time_t(now);
std::tm local_time = *std::localtime(&timestamp);
static char buffer[40];
std::strftime(buffer, sizeof(buffer), "%Y-%m-%d %H:%M:%S", &local_time);
std::cout<<"["<

int main() {
wsp::workspace spc;
auto bid1 = spc.attach(new wsp::workbranch);
auto bid2 = spc.attach(new wsp::workbranch);
auto sid1 = spc.attach(new wsp::supervisor(2, 4));
auto sid2 = spc.attach(new wsp::supervisor(2, 4));
spc[sid1].supervise(spc[bid1]); // start supervising
spc[sid2].supervise(spc[bid2]); // start supervising

// Automatic assignment
spc.submit([]{std::cout<

int main() {
wsp::futures futures;
wsp::workspace spc;
spc.attach(new wsp::workbranch("br", 2));

futures.add_back(spc.submit([]{return 1;}));
futures.add_back(spc.submit([]{return 2;}));

futures.wait();
auto res = futures.get();
for (auto& each: res) {
std::cout<<"got "<`,里面保存了所有任务的返回值。

## benchmark

### 空跑测试

测试原理:通过快速提交大量的空任务以考察框架同步任务的开销。

测试环境:Ubuntu20.04 : 8核16线程 : AMD Ryzen 7 5800H with Radeon Graphics 3.20 GHz

<**测试1**>
在测试1中我们调用了`submit`,每次打包10个空任务并提交到**workbranch**中执行。结果如下:(代码见`workspace/benchmark/bench1.cc`)

```
threads: 1 | tasks: 100000000 | time-cost: 2.68801 (s)
threads: 2 | tasks: 100000000 | time-cost: 3.53964 (s)
threads: 3 | tasks: 100000000 | time-cost: 3.99903 (s)
threads: 4 | tasks: 100000000 | time-cost: 5.26045 (s)
threads: 5 | tasks: 100000000 | time-cost: 6.65157 (s)
threads: 6 | tasks: 100000000 | time-cost: 8.40907 (s)
threads: 7 | tasks: 100000000 | time-cost: 10.5967 (s)
threads: 8 | tasks: 100000000 | time-cost: 13.2523 (s)
```

<**测试2**>
在测试2中我们同样将10个任务打成一包,但是是将任务提交到**workspace**中,利用workspace进行任务分发,且在workspace托管的workbranch只拥有 **1条** 线程。结果如下:(代码见`workspace/benchmark/bench2.cc`)

```
threads: 1 | tasks: 100000000 | time-cost: 4.38221 (s)
threads: 2 | tasks: 100000000 | time-cost: 4.01103 (s)
threads: 3 | tasks: 100000000 | time-cost: 3.6797 (s)
threads: 4 | tasks: 100000000 | time-cost: 3.39314 (s)
threads: 5 | tasks: 100000000 | time-cost: 3.03324 (s)
threads: 6 | tasks: 100000000 | time-cost: 3.16079 (s)
threads: 7 | tasks: 100000000 | time-cost: 3.04612 (s)
threads: 8 | tasks: 100000000 | time-cost: 3.11893 (s)
```

<**测试3**>
在测试3中我们同样将10个任务打成一包,并且将任务提交到**workspace**中,但是workspace管理的每个**workbranch**中都拥有 **2条** 线程。结果如下:(代码见`workspace/benchmark/bench3.cc`)

```
threads: 2 | tasks: 100000000 | time-cost: 4.53911 (s)
threads: 4 | tasks: 100000000 | time-cost: 7.0178 (s)
threads: 6 | tasks: 100000000 | time-cost: 6.00101 (s)
threads: 8 | tasks: 100000000 | time-cost: 5.97501 (s)
threads: 10 | tasks: 100000000 | time-cost: 5.63834 (s)
threads: 12 | tasks: 100000000 | time-cost: 5.17316 (s)
```

**总结**:利用workspace进行任务分发,且**workbranch**线程数为1的情况下,整个任务同步框架是静态的,任务同步开销最小。当**workbranch**内的线程数越多,面对大量空任务时对任务队列的竞争越激烈,框架开销越大。(更加详尽的测试结果见`bench.md`,测试代码于`workspace/bench`)

### 延迟测试
测试原理:通过记录在不同等待策略下空任务执行时间模拟测试延迟。

测试环境:Ubuntu24.04(WSL2) : 8核16线程 : AMD Ryzen 7 7840HS w/ Radeon 780M Graphics

<**测试4**>
在测试4中我们同样将10个任务打成一包,并提交到**workspace**中,利用workspace进行任务分发,且在workspace托管的workbranch只拥有 **1条** 线程,我们对三种不同的等待策略(lowlatancy、balance 和 blocking)分别进行了测试,并记录了每种策略下的总耗时(time_cost)。结果如下:(代码见`workspace/benchmark/bench4.cc`)

```
Strategy: lowlatancy | Threads: 2 | Tasks: 10000000 | Time-cost: 0.337076 (s)
Strategy: balance | Threads: 2 | Tasks: 10000000 | Time-cost: 0.33139 (s)
Strategy: blocking | Threads: 2 | Tasks: 10000000 | Time-cost: 0.457265 (s)
---------------------------------------------------------------------------------------
Strategy: lowlatancy | Threads: 3 | Tasks: 10000000 | Time-cost: 0.328127 (s)
Strategy: balance | Threads: 3 | Tasks: 10000000 | Time-cost: 0.327678 (s)
Strategy: blocking | Threads: 3 | Tasks: 10000000 | Time-cost: 3.442142 (s)
---------------------------------------------------------------------------------------
Strategy: lowlatancy | Threads: 4 | Tasks: 10000000 | Time-cost: 0.309493 (s)
Strategy: balance | Threads: 4 | Tasks: 10000000 | Time-cost: 0.302125 (s)
Strategy: blocking | Threads: 4 | Tasks: 10000000 | Time-cost: 6.375414 (s)
---------------------------------------------------------------------------------------
Strategy: lowlatancy | Threads: 8 | Tasks: 10000000 | Time-cost: 0.289247 (s)
Strategy: balance | Threads: 8 | Tasks: 10000000 | Time-cost: 0.263492 (s)
Strategy: blocking | Threads: 8 | Tasks: 10000000 | Time-cost: 6.631623 (s)
---------------------------------------------------------------------------------------
Strategy: lowlatancy | Threads: 16 | Tasks: 10000000 | Time-cost: 0.246766 (s)
Strategy: balance | Threads: 16 | Tasks: 10000000 | Time-cost: 0.238113 (s)
Strategy: blocking | Threads: 16 | Tasks: 10000000 | Time-cost: 6.722631 (s)
```

总结:
由于主线程一直在提交任务,`balance`策略睡眠时间较短,导致和`lowlatancy`策略的延迟大致相似。

而在 `blocking` 策略下,随着线程数的增加,以下因素导致了任务执行时间的增加:
1. 条件变量的阻塞和唤醒开销。
2. 任务队列的竞争和锁争用。
3. 线程数超过 CPU 核心数导致的调度开销。
4. 被动等待任务分发的效率低下。
5. 线程上下文切换的频率增加。
6. 条件变量广播导致的无效唤醒。

| 策略 | 实现方式 | 响应延迟 | CPU 占用 |
|------------------|--------------------------------------------------------------------------|----------------|--------------|
| **LowLatency** | 使用 `std::this_thread::yield()` 进行忙等待 | 最低 | 高 |
| **Balanced** | 初始忙等待后进入短时间休眠 | 中等 | 中等 |
| **Blocking (Passive)** | 使用条件变量阻塞线程,直到任务队列有新任务或其他条件满足 | 较高 | 低 | |

## 如何使用

#### 生成doxygen文档
请提前安装doxygen
``` shell
# 与workspace同级目录中(Linux)
doxygen ./doxygen.conf
```
生成的文档在`workspace/docs/`中,可以在浏览器中打开`workspace/docs/html/index.html`并查看接口。

#### 简单使用

```shell
# 项目代码与workspace同级(Linux)
g++ -I workspace/include xxx.cc -lpthread && ./a.out
```
其它平台可能需要链接不同的线程库,且可执行文件后缀不同。

#### 运行已有实例(以example为例)

```shell
# 在"workspace/example"中
cmake -B build
cd build
make
./e1
```

#### 安装到系统(支持Win/Linux/Mac)
```shell
# 在"workspace/"中
cmake -B build
cd build
sudo make install
```

## 注意事项

#### 雷区
1. 不要在任务中操纵组件,如:`submit([&br]{br.wait_tasks();});` 会阻塞线程

2. 不要在回调中操纵组件,如:`set_tick_cb([&sp]{sp.suspend();});`

3. 不要让workbranch先于supervisor析构(空悬指针问题)。

#### 接口安全性

|组件接口|是否线程安全|
| :-- | :--: |
|workspace|否|
|workbranch|是|
|supervisor|是|
|futures|否|

#### 时间单位
workspace有关时间的接口单位都是 -> 毫秒(ms)

## 其它
#### 参考书目
《C++并发编程》

#### 联系我
邮箱: [email protected]