Ecosyste.ms: Awesome

An open API service indexing awesome lists of open source software.

Awesome Lists | Featured Topics | Projects

https://github.com/skyworkai/skywork

Skywork series models are pre-trained on 3.2TB of high-quality multilingual (mainly Chinese and English) and code data. We have open-sourced the model, training data, evaluation data, evaluation methods, etc. 天工系列模型在3.2TB高质量多语言和代码数据上进行预训练。我们开源了模型参数,训练数据,评估数据,评估方法。
https://github.com/skyworkai/skywork

llm

Last synced: about 1 month ago
JSON representation

Skywork series models are pre-trained on 3.2TB of high-quality multilingual (mainly Chinese and English) and code data. We have open-sourced the model, training data, evaluation data, evaluation methods, etc. 天工系列模型在3.2TB高质量多语言和代码数据上进行预训练。我们开源了模型参数,训练数据,评估数据,评估方法。

Awesome Lists containing this project

README

        


🤗 Hugging Face • 🤖 ModelScope • 👾 Wisemodel • 🧰 OpenXLab • 💬 WeChat• 📜Tech Report

[🎉天工在线对话平台已正式向公众开放](https://sso.tiangong.cn/?redirect=https://model-platform.tiangong.cn/overview&client_id=200005)

[![GitHub Stars](https://img.shields.io/github/stars/SkyworkAI/Skywork)](https://github.com/SkyworkAI/Skywork/stargazers)
[![GitHub Forks](https://img.shields.io/github/forks/SkyworkAI/Skywork)](https://github.com/SkyworkAI/Skywork/fork)




中文 |
English



# 💪项目介绍
我们很高兴宣布开源了Skywork大模型,Skywork是由昆仑万维集团·天工团队开发的一系列大型模型,本次开源的模型有**Skywork-13B-Base**模型、**Skywork-13B-Chat**模型、**Skywork-13B-Math**模型和**Skywork-13B-MM**模型,以及每个模型的量化版模型,以支持用户在消费级显卡进行部署和推理。

我们开源的Skywork系列模型可以用于商业用途,但需要遵循我们的协议,不进行有害活动。Skywork开源项目的特点有:

- **Skywork-13B-Base**模型在高质量清洗过滤的**3.2万亿**个多语言(主要是中文和英文)和代码数据上进行预训练,它在多种评测和各种基准测试上都展现了同等规模模型的**最佳效果**。

- **Skywork-13B-Chat**模型具备强大的对话能力,我们在**文创**领域进行了进一步的针对性增强。我们通过构建一万多条高质量指令数据集,在10个文创任务上进行了针对性微调,使我们的模型在文创任务中能够接近ChatGPT的效果。此外,我们开源了针对这10个文创任务上的大约500条样本组成的benchmark。

- **Skywork-13B-Math**模型经过专门的数学能力强化训练。在13B参数规模下,我们的模型在**GSM8K评测上得分第一**,同时在MATH数据集以及CMATH上也表现优异,处于13B模型顶尖水平。

- **Skywork-13B-MM**多模态模型支持用户输入图片信息进行问答,对话等任务。

- **Skywork/Skypile-150B**数据集是根据我们经过精心过滤的数据处理流程从中文网页中筛选出的高质量数据。本次开源的数据集大小约为600GB,总的token数量约为**150B**,是目前**开源最大中文数据集**。

- 除此之外,我们还公开了训练Skywork-13B模型中使用的评估方法、数据配比研究和训练基础设施调优方案等信息。我们希望这些开源内容能够进一步启发社区对于大型模型预训练的认知,并推动人工智能通用智能(AGI)的实现。

如果您希望了解更多的信息,如训练方案,评估方法,请参考我们的[技术报告](http://arxiv.org/abs/2310.19341),[Skymath](https://arxiv.org/abs/2310.16713)论文,[SkyworkMM](https://github.com/will-singularity/Skywork-MM/blob/main/skywork_mm.pdf)论文。

# 🔥 更新信息
* 2023.12.7 天工开源150B中文预训练语料安全审核后已重新开放。地址:
* *[(国外)Huggingface](https://huggingface.co/datasets/Skywork/SkyPile-150B)
* *[(国内)始智AI](https://www.wisemodel.cn/datasets/Skywork/SkyPile-150B/)

* 2023.11.2 我们将我们构建的评估数据[MOCK_GSM8K_TEST](https://huggingface.co/datasets/Skywork/mock_gsm8k_test)以及中文领域评估数据[ChineseDomainModelingEval](https://huggingface.co/datasets/Skywork/ChineseDomainModelingEval)上传到了huggingface,您如果有评估模型的需求,请下载我们的评估数据集。

* 2023.10.31 我们的技术报告 [Skywork: A More Open Bilingual Foundation Model](http://arxiv.org/abs/2310.19341) 在arxiv可见,里面有更详细的评估方法,评测对比和技术细节。

* 2023.10.30 我们开源了**Skywork-13B-Base** 和 **Skywork-13B-Math** 以及对应模型的量化模型。我们开源了**Skywork/Skypile-150B**数据集,该数据集包含根据中文网页清洗的超过**150亿**高质量中文token,硬盘大小大约600GB,是已知目前最大的开源中文数据集。

# 📖目录

- [☁️下载地址](#下载地址)
- [👨‍💻模型介绍](#模型介绍)
- [🏆模型评估](#模型评估)
- [📕快速开始](#快速开始)
- [📣模型样例展示](#模型样例展示)
- [🚀量化部署](#量化部署)
- [🛫模型微调](#模型微调)
- [🍀社区和生态](#社区和生态)
- [⚠️声明和协议](#声明和协议)
- [🤝引用和联系我们](#引用和联系我们)

# 下载地址
## 模型下载

| | HuggingFace基础模型 | HuggingFace量化版模型 | ModelScope基础模型 | ModelScope量化版模型 | Wisemodel基础模型 | Wisemodel量化版模型 | OpenXLab基础模型 | OpenXLab量化版模型 |
|:-------:|:-----------:|:-----------------------------:|:-----------------------------:|:-----------------------------:|:-----------------------------:|:-----------------------------:|:-----------------------------:|:-----------------------------:|
| **Skywork-13B-Base** | 🤗 [Skywork-13B-Base](https://huggingface.co/Skywork/Skywork-13B-Base) | 🤗 [Skywork-13B-Base-8bits](https://huggingface.co/Skywork/Skywork-13B-Base-8bits) | 🤖[Skywork-13B-Base](https://www.modelscope.cn/models/skywork/Skywork-13B-Base) | 🤖 [Skywork-13B-Base-8bits](https://www.modelscope.cn/models/skywork/Skywork-13B-Base-8bits) |👾[Skywork-13B-Base](https://wisemodel.cn/models/Skywork/Skywork-13B-Base) | 👾 [Skywork-13B-Base-8bits](https://wisemodel.cn/models/Skywork/Skywork-13B-Base-8bits) |🧰[Skywork-13B-Base](https://openxlab.org.cn/models/detail/Skywork/Skywork-13B-base) |🧰 [Skywork-13B-Base-8bits](https://openxlab.org.cn/models/detail/Skywork/Skywork-13B-Base-8bits) |
| **Skywork-13B-Chat** | 🤗敬请期待 | 🤗敬请期待 | 🤖敬请期待 | 🤖敬请期待 |👾敬请期待 | 👾敬请期待 |🧰敬请期待 | 🧰敬请期待 |
| **Skywork-13B-Math** | 🤗 [Skywork-13B-Math](https://huggingface.co/Skywork/Skywork-13B-Math) | 🤗 [Skywork-13B-Math-8bits](https://huggingface.co/Skywork/Skywork-13B-Math-8bits) | 🤖 [Skywork-13B-Math](https://www.modelscope.cn/models/skywork/Skywork-13B-Math) | 🤖 [Skywork-13B-Math-8bits](https://www.modelscope.cn/models/skywork/Skywork-13B-Math-8bits) |👾[Skywork-13B-Math](https://wisemodel.cn/models/Skywork/Skywork-13B-Math) | 👾 [Skywork-13B-Math-8bits](https://wisemodel.cn/models/Skywork/Skywork-13B-Math-8bits) |🧰[Skywork-13B-Math](https://openxlab.org.cn/models/detail/Skywork/Skywork-13B-Math) | 🧰 [Skywork-13B-Math-8bits](https://openxlab.org.cn/models/detail/Skywork/Skywork-13B-Math-8bits) |
| **Skywork-13B-MM** | 🤗敬请期待 | - | 🤖敬请期待 | - |👾敬请期待 | - |🧰敬请期待 | - |

## 数据下载
| 数据集名称 | 下载地址 |
|:-------:|:-----------:|
| Skywork/Skypile-150B | 🤗[Hugging Face地址](https://huggingface.co/datasets/Skywork/SkyPile-150B) |

## 评估集下载
| 数据集名称 | 下载地址 |
|-------|:-----------:|
| Skywork/ChineseDomainModelingEval | 🤗[Hugging Face地址](https://huggingface.co/datasets/Skywork/ChineseDomainModelingEval) |
| Skywork/mock_gsm8k_test | 🤗[Hugging Face地址](https://huggingface.co/datasets/Skywork/mock_gsm8k_test) |

## 模型中间存档下载

我们还额外开源了Skywork-13B-Base模型在训练500B,1T,1.5T,2T,2.5T,3T,3.1T tokens的模型存档供社区使用,这对研究大模型的能力是如何进化的非常有帮助。

| 模型 | 下载地址 |
| --------- | ------ |
| Skywork-13B-Base-Intermediate | 🤗[Skywork-13B-Base-Intermediate](https://huggingface.co/Skywork/Skywork-13B-Base-Intermediate)|
| Skywork-13B-Base-3.1T | 🤗[Skywork-13B-Base-3.1T](https://huggingface.co/Skywork/Skywork-13B-Base-3.1TB)|

# 模型介绍

## 训练数据
我们精心搭建了数据清洗流程对文本中的低质量数据、有害信息、敏感信息进行清洗过滤。我们的Skywork-13B-Base模型是在清洗后的3.2T高质量中、英、代码数据上进行训练,其中英文占比52.2%,中文占比39.6%,代码占比8%,在兼顾中文和英文上的表现的同时,代码能力也能有保证。

| | 类目 | 百分比 |
|-------------|------------------|------------|
| **英文** | 网页数据 | 39.8% |
| | 书籍数据 | 3.6% |
| | 学术论文 | 3.0% |
| | 百科全书 | 0.5% |
| | 其他(年报,文书等) | 2.9% |
| **中文** | 网页数据 | 30.4% |
| | 社交媒体数据 | 5.5% |
| | 百科全书 | 0.8% |
| | 其他(年报,文书等) | 3.1% |
| **其他语言** | 百科全书 | 2.4% |
| **代码** | Github | 8.0% |

## 模型结构
与Llama-2-13B模型对比,天工Skywork-13B模型采用相对更加瘦长的网络结构,层数为52层,同时将FFN Dim和Hidden Dim缩小到12288和4608,从而保证模型参数量和原始Llama-2-13B模型相当。根据我们前期实验对比,相对瘦长的网络结构在大Batch Size训练下可以取得更好的泛化效果。Skywork-13B和Llama-2-13B模型的对比如下:

| 模型结构 | Llama-2-13B | Skywork-13B |
|----------------------|:----:|:-----------:|
| 词表大小 | 32,000 | 65,536 |
| Hidden Dim | 5,120 | 4,608 |
| FFN Dim | 13,696 | 12,288 |
| Head Dim | 128 | 128 |
| Attention头数 | 40 | 36 |
| 层数 | 40 | 52 |
| 训练序列长度 | 4,096 | 4,096 |
| 位置编码 | RoPE | RoPE |

## 分词器
我们使用Byte-Pair Encoding(BPE)对数据进行分词,词表大小为65536,其中拉丁字符和子词为32000个,汉字和Unicode符号8000个,汉语词语25519个,剩下的17个为保留字。

| 类别 | 大小 |
|---------------------------------|--------|
| 拉丁基础词和子词 | 32000 |
| 汉字和Unicode符号 | 8000 |
| 汉语词语 | 25519 |
| 保留符号 | 17 |
| **总计** | **65536** |

## 训练方法
为了更加精细化利用数据,我们采用两阶段训练方法,第一阶段使用通用语料进行模型通用能力学习,第二部分加入STEM(科学,技术,工程,数学)相关数据进一步增强模型的推理能力、数学能力、问题解决能力。

### 第一阶段预训练
训练过程中我们监督模型训练损失和各项能力的变化。下图是第一阶段预训练中我们筛选出来的重要指标的变化曲线。第一阶段预训练包含两个连续的训练过程,我们用不同的颜色表示。第一阶段预训练完成的模型我们称之为Skywork-13B-3.1T-Base
![metrics of stage one](misc/stage1_metrics.png)

### 第二阶段预训练
第二阶段预训练在通用语料中额外加入STEM相关数据继续训练。第二阶段训练大约130B token,两阶段总计训练3.2T,产生了我们最终的Skywork-13B-Base模型。

Image

## 开源数据
### Skypile-150B简介
Skypile-150B 是一个大型的中文语言模型预训练数据集,它取自于公开可用的中文互联网网页数据,并经过严格的过滤和广泛的重复数据删除,同时还采用了FastText和Bert等模型对低质量数据进行过滤。Skypile-150B包含大约166M个单独网页,平均每篇文章中文字符超过1,000。数据集总共约150B token,硬盘大小为592GB。

### 语言和数据字段
Skypile-150B 数据集为中文数据。页面中包含的经过处理和清理的文本,数据格式为jsonl,每一行为一个文档,按行用json进行解析,文本存放在text字段中。

### 敏感信息和偏见
虽然经过了严格的清洗和过滤,由于 Skypile-150B 建立的公开可用的网页之上,因此它可能仍然包含一些敏感信息,例如电子邮件、电话号码或 IP 地址等。因此使用者需要注意,在使用数据前进行必要的进一步过滤和清洗。

### 协议
数据的使用需要遵循我们的协议,不做任何危害国家社会安全和违法的用途。

# 模型评估
## 领域数据困惑度评估
语言模型训练的本质上是让预测下一个词更准确。基于这个认知,我们认为评估基础大模型一个重要的方式是评估在各大领域上语言模型生成文章的概率。在语言模型建模中一般使用Cross Entropy损失函数,整体的损失函数为每个位置预测真实词损失的平均,则有:

```math
loss = -\sum^{n}_{i=1} log(p_i) / n = -log( \prod_{i=1}^n p_i) / n
```

其中$`n`$是文档的长度,即token数,$`p_i`$是位置i上真实词的概率,我们知道文档中每一个位置上真实词的概率的联乘为生成该文档的概率,这样我们就将loss和生成文章的概率联系在了一起。而不同模型因为使用的分词器不同,具有不同的token数,因此对损失函数乘以token数目$`n`$就仅考虑生成文章的概率部分,不同模型也可以进行比较。我们将标准化后loss取指数转换成perplexity,使得模型的差异更加可读。为了阅读方便,后续提到的loss和ppl为模型标准化后的loss和perplexity。

基于上述分析,我们对多个领域筛选出**2023年9月份新发布**的几百到上千篇高质量文章,并人工进行了核对。保证所有的测试数据不在天工模型以及其他所有模型的训练集中,并且测试数据的来源也足够广泛,质量也高。我们可以选取当前最新的文章评测不同模型的ppl,模型很难作弊。并且我们会持续按照最新数据评测各个模型效果,动态更新各个模型能力。
下图列出了不同开源模型,天工Skywork-13B-Base取得最优效果,证明了我们的Base模型的基础能力处于国内开源模型中文最强水平。

| | 技术文章 | 电影评论 | 政务报告 | 游戏 | 金融 | 通用领域 | Average |
|------------------|-------|-------|-------|-------|---------|---------|---------|
| MOSS-7B | 20.83 | 39.66 | 11.08 | 31.24 | 10.59 | 13.25 | 18.50 |
| InternLM-7B | 13.43 | 24.90 | 5.88 | 19.78 | 6.17 | 8.10 | 11.17 |
| Qwen-7B | 13.39 | 25.16 | 5.55 | 19.26 | 5.76 | 7.78 | 10.83 |
| Baichuan2-7B | 12.89 | 23.26 | 5.34 | 18.36 | 5.68 | 7.62 | 10.41 |
| LLaMA2-13B | 23.26 | 50.66 | 18.09 | 32.52 | 14.85 | 16.55 | 23.54 |
| Xverse-13B | 12.55 | 23.49 | 5.20 | 17.69 | 5.54 | 7.46 | 10.19 |
| Baichuan-13B | 12.38 | 22.46 | 5.21 | 17.59 | 5.42 | 7.37 | 10.03 |
| Baichuan2-13B | 12.14 | 21.85 | 5.05 | 17.15 | 5.35 | 7.24 | 9.81 |
| Qwen-14B | 11.90 | 22.43 | 4.89 | **16.94** | 5.24 | 7.03 | 9.67 |
| InternLM-20B | 12.34 | 22.06 | 5.75 | 17.45 | 5.73 | 7.78 | 10.34 |
| Aquila2-34B | 14.62 | 29.09 | 5.72 | 21.78 | 5.83 | 8.45 | 11.73 |
| Skywork-13B-Base (ours) | **11.58** | **21.84** | **4.76** | 17.28 | **4.92** | **6.82** | **9.42** |

### 评测数据和评测脚本
我们将评测数据和评测脚本也进行了开源,您需要在[Hugging Face](https://huggingface.co/Skywork)上下载我们的评估数据后,将评估数据存放在data/eval_loss目录下,运行下面命令则可以复现我们的结果。
```
bash bash_scripts/skywork_eval_loss.sh
```
假设我们需要计算A模型和Skywork模型的标准化损失。我们分别对A模型和Skywork模型运行上面脚本,会在各自目录下的result.txt文件中得到两个值,第一个值是loss,第二个值是文档token数。我们将A模型的loss和token数分别记作loss_a和token_a,Skywork模型的loss和token数分别记作loss_s和token_s。那么A模型标准化损失loss_a_norm = loss_a * token_a / token_s。这样就可以对比loss_a_norm和loss_s来对比A模型和Skywork模型的效果。扩展到多个模型同理。

### 评估常见问题
**Q1**: 为什么要让所有模型的文档长度一样,而不是让分词后token一样?

**A1**: 本质上领域困惑度是衡量不同模型生成高质量文档的概率,概率越大模型效果越好,因此我们需要保证所有模型看到的文档是一样的。此外,因为不同模型使用不同的分词器,分词后的token数目差异很大,以Llama为例,会将汉字切分为3个unicode编码,如果按照分词后token比较的话,那么Llama模型看到的文档长度会比其他模型短,而我们知道文档前面的token loss是更低的,后面token loss更高,因此按照分词后token比较的话会对Llama这种分词更细的模型会不公平。

**Q2**: 为什么预处理的时候截取max_position_embedding除以3这个长度的文本?

**A2**: 根据问题1我们知道Llama模型一般是将汉字切分成3个字符,为了保证一篇文档输入模型分词后不超过4096的限制,所以我们将文档最大长度设置成了4096/3=1228。在我们对比模型中,Llama模型是对中文切分最细的,所以只要不超过Llama模型的分词长度,其他模型也肯定可以塞得下。

**Q3**: 不同模型有不同的最大长度,统一用4096是否不公平?

**A3**: 如上所示,我们计算的文档长度是1228个中文汉字,以Qwen为例,训练长度为2K,推理时候可以扩展到8K,并且中英双语模型的压缩率一般在2-3倍,因此1228个中文字符一般只有500-1000个token,远远达到不了2K甚至4K的最大长度限制。

**Q4**: 为什么Average Ppl和每个领域Ppl平均不一致?

**A4**: 我们计算Average Ppl的方式是将所有文档的loss平均起来,然后取指数转换成Ppl,这样是为了避免有些领域Ppl过分的大,导致整体结果容易受到极端值影响。其物理含义是将所有文档视为一个整体问题,Average Ppl则是针对这整体文档计算出的Ppl。

## Benchmark评估
我们评估了各大权威评测benchmark上的结果作为参考,包括C-Eval,MMLU,CMMLU,GSM8K。遵循之前的评估流程,C-Eval、MMLU、CMMLU测试5-shot结果,GSM8K测试8-shot结果。可以看到Skywork-13B-Base模型在中文开源模型中处于前列,在同等参数规模下为最优水平。

| Model | C-Eval | CMMLU | MMLU | GSM8K |
|-------------------------|:-----:|:---------------:|:----------:|:-------:|
| LLaMA-1-13B-Base | 35.5 | 31.2 | 46.9 | 17.8 |
| Open-LLaMA-13B | 27.1 | 26.7 | 42.7 | 12.4 |
| LLaMA-2-13B-Base | 36.5 | 36.6 | 54.8 | 28.7 |
| InternLM-20B | 58.8 | - | 62.0 | 52.6 |
| Qwen-14B-Base | 72.1 | 71.0 | 66.3 | 61.3 |
| Aquila2-34B-Base | 63.1 | 71.4 | 64.2 | 58.4 |
| XVERSE-13B-Base | 54.7 | - | 55.1 | - |
| Baichuan-13B-Base | 52.4 | 55.3 | 51.6 | 26.6 |
| Baichuan-2-13B-Base | 58.1 | 62.0 | 59.2 | 52.3 |
| Skywork-13B-Base (ours) | 60.6 | 61.8 | 62.1 | 55.8 |

## Benchmark评估详细结果
我们给出**Skywork-13B-Base**模型在C-Eval,CMMLU,MMLU上模型的详细结果。

| 评测集 | **STEM** | **Humanities** | **Social Science** | **Other** | **China Specific** | **Hard** | **Average** |
|:-----:|:---------:|:--------:|:-------------:|:--------:|:--------:|:--------:|:--------:|
| **C-EVAL** | 51.2 | 67.8 | 74.6 | 57.5 | - | 39.4 | 60.6 |
| **CMMLU** | 49.5 | 69.3 | 65.9 | 63.3 | 64.2 | - | 61.8 |
| **MMLU** | 51.6 | 58.0 | 72.5 | 68.8 | - | - | 62.1 |

## 复现

我们提供了评测脚本以供复现我们的实验结果。注意,由于内部代码和开源代码存在少许差异,评测结果可能与汇报结果存在细微的结果不一致。请阅读[eval/EVALUATION.md](eval/EVALUATION.md)了解更多信息。

## Skywork-13B-Math模型评估
Skywork-13B-Math在数学能力相对Base模型进一步加强,我们在主流的数学相关benchmark,GSM8K,MATH和CMATH上进行评估。结果显示在13B规模模型中,我们的模型在**GSM8K和CMATH评测中得分第一**,同时MATH评测也处于前列。

| Model | GSM8K | MATH | CMATH |
|-------------------------|:-----:|:---------------:|:----------:|
| LLaMA-1-13B-Base | 17.80 | 3.90 | - |
| LLaMA-2-13B-Base | 28.70 | 3.90 | - |
| Baichuan-13B-Base | 26.76 | 4.84 | 51.33 |
| Baichuan-2-13B-Base | 52.77 | 10.08 | - |
| WizardMath-13B | 63.90 | 14.00 | 50.83 |
| GAIRMATH-Abel-13B | 66.41 | 17.34 | - |
| MetaMath-13B | 72.30 | 22.40 | - |
| Skywork-13B-Math (ours) | **72.33** | 16.98 | **77.27** |

# 快速开始
我们将模型参数、配置文件、tokenizer等在Hugging Face和ModelScope上进行了开源。

## 依赖安装
- Python 3.8及以上版本
- Pytorch 2.0及以上版本
- CUDA建议使用11.4以上版本。

Skywork-13B-Base模型,Skywork-13B-Chat模型和Skywork-13B-Math模型运行下面的脚本进行Python依赖安装。
```shell
pip install -r requirements.txt
```
## Hugging Face模型测试

### Base 模型推理

```python

from transformers import AutoModelForCausalLM, AutoTokenizer
from transformers.generation import GenerationConfig
import torch

tokenizer = AutoTokenizer.from_pretrained("SkyworkAI/Skywork-13B-Base", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("SkyworkAI/Skywork-13B-Base", device_map="auto", trust_remote_code=True).eval()

inputs = tokenizer('陕西的省会是西安', return_tensors='pt').to(model.device)
response = model.generate(inputs.input_ids, max_length=128)
print(tokenizer.decode(response.cpu()[0], skip_special_tokens=True))
"""
陕西的省会是西安,西安是我国著名的古都,在历史上有十三个朝代在此建都,所以西安又被称为“十三朝古都”。西安是我国著名的旅游城市,每年都有大量的游客来到西安旅游,西安的旅游资源非常丰富,有很多著名的旅游景点,比如秦始皇兵马俑、大雁塔、华清池、大唐芙蓉园、西安城墙、大明宫国家遗址公园、西安碑林博物馆、西安钟楼、西安鼓楼、西安半坡博物馆、西安大兴善寺、西安小雁塔
"""

inputs = tokenizer('陕西的省会是西安,甘肃的省会是兰州,河南的省会是郑州', return_tensors='pt').to(model.device)
response = model.generate(inputs.input_ids, max_length=128)
print(tokenizer.decode(response.cpu()[0], skip_special_tokens=True))
"""
陕西的省会是西安,甘肃的省会是兰州,河南的省会是郑州,湖北的省会是武汉,湖南的省会是长沙,江西的省会是南昌,安徽的省会是合肥,江苏的省会是南京,浙江的省会是杭州,福建的省会是福州,广东的省会是广州,广西的省会是南宁,海南的省会是海口,四川的省会是成都,贵州的省会是贵阳,云南的省会是昆明,西藏的省会是拉萨,青海的省会是西宁,宁夏的省会是银川,新疆的省会是乌鲁木齐。
"""

```

### Chat 模型推理
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
from transformers.generation import GenerationConfig
from transformers import AutoConfig
import torch

def load(tokenizer_path, checkpoint_path):
print('Loading tokenizer ...')
tokenizer = AutoTokenizer.from_pretrained(
tokenizer_path, use_fast=False, trust_remote_code=True, padding_side='left')
tokenizer.add_tokens("[USER]")
tokenizer.add_tokens("[BOT]")
tokenizer.add_tokens("[SEP]")

config = AutoConfig.from_pretrained(checkpoint_path, trust_remote_code=True)

model = AutoModelForCausalLM.from_pretrained(
checkpoint_path, config=config, device_map="balanced_low_0", torch_dtype=torch.bfloat16, trust_remote_code=True).eval()

return model, tokenizer

def special_encode(prompt, tokenizer):
raw_str = "[USER]%s[SEP][BOT]" % prompt.strip().replace("\r", "")
bos_id = tokenizer.bos_token_id
eos_id = tokenizer.eos_token_id
sep_id = tokenizer.encode("[SEP]")[-1]
res_id = [eos_id, bos_id]
arr = raw_str.split("[SEP]")
for elem_idx in range(len(arr)):
elem = arr[elem_idx]
elem_id = tokenizer.encode(elem)[1:]
res_id += elem_id
if elem_idx < len(arr) - 1:
res_id.append(sep_id)
return res_id

def extract_res(response):
if "[BOT]" in response:
response = response.split("[BOT]")[1]
if "" in response:
response = response.split("")[-1]
if "" in response:
response = response.split("")[0]
if "[SEP]" in response:
response = response.split("[SEP]")[0]
return response

if __name__ == '__main__':
tokenizer_path='skywork/skywork-13b-chat'
checkpoint_path = 'skywork/skywork-13b-chat'
model, tokenizer = load(tokenizer_path, checkpoint_path)

doc = "写一首七言绝句"
input_tokens = special_encode(doc, tokenizer)
input_tokens = torch.tensor(input_tokens).to(model.device).reshape(1, -1)
response = model.generate(input_tokens,
max_new_tokens=1000,
pad_token_id=tokenizer.pad_token_id,
do_sample=True,
top_p=0.8,
top_k=5,
temperature=0.95,
num_return_sequences=1,
repetition_penalty=1.1,
bos_token_id=1,
eos_token_id=2)
response = tokenizer.decode(response.cpu()[0], skip_special_tokens=True)
response = extract_res(response)
print(response)

"""生成结果:
千里莺啼绿水滨,
万家歌笑白云间。
男女老少皆朋友,
和谐社会见温馨。
"""

doc = "我是一名运动员,最近比赛取得很好的成绩受到大家的关注和认可。帮我写一份微博文案,帮我感谢大家支持我,要有日常感,并语言随意一些"
input_tokens = special_encode(doc, tokenizer)
input_tokens = torch.tensor(input_tokens).to(model.device).reshape(1, -1)
response = model.generate(input_tokens,
max_new_tokens=1000,
pad_token_id=tokenizer.pad_token_id,
do_sample=True,
top_p=0.8,
top_k=5,
temperature=0.95,
num_return_sequences=1,
repetition_penalty=1.1,
bos_token_id=1,
eos_token_id=2)
response = tokenizer.decode(response.cpu()[0], skip_special_tokens=True)
response = extract_res(response)
print(response)

"""生成结果:

谢谢每一个在我运动生涯中陪伴我的人,你们的支持、鼓励和信任,是我前进的动力。这段时间的比赛,让我感受到了前所未有的成就和喜悦,它们不仅属于我,更属于那些一路陪伴我成长的人们。

从心底里感谢所有支持我的人,是你们的支持,让我有了勇气和力量去追求更高的目标。每一次的鼓励,都是我前进道路上的光芒,每一次的点赞,都是对我努力的肯定。

生活中的点滴,让我们相互理解,相互支持,一起走过了无数个黎明和黄昏。感谢你们的陪伴,让我不再孤单,让我更加坚定地走向未来。

未来的路还很长,但我愿意陪你一起走下去。因为我知道,你们的支持,会一直伴随着我前行。

再次感谢所有支持我的人,你们是我心中最亮的星。

#运动员# #体育精神#
"""
```

### Math 模型推理
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

tokenizer_path = ""
checkpoint_path = ""

tokenizer = AutoTokenizer.from_pretrained(
tokenizer_path, use_fast=False, trust_remote_code=True, padding_side='left')

model = AutoModelForCausalLM.from_pretrained(
checkpoint_path, device_map="auto", trust_remote_code=True).eval()
tokenizer.add_tokens(["[USER]", "[BOT]", "[SEP]"])

def special_encode(input, tokenizer):
raw_str = "[USER]%s[SEP][BOT]" % input.strip().replace("\r", "")
eos_id = tokenizer.eos_token_id
bos_id = tokenizer.bos_token_id
sep_id = tokenizer.encode("[SEP]")[-1]
res_id = [eos_id, bos_id]
arr = raw_str.split("[SEP]")
for elem_idx in range(len(arr)):
elem = arr[elem_idx]
elem_id = tokenizer.encode(elem)[1:]
res_id += elem_id
if elem_idx < len(arr) - 1:
res_id.append(sep_id)

return res_id

def extract_res(response):
if "[BOT]" in response:
response = response.split("[BOT]")[1]
if "" in response:
response = response.split("")[-1]
if "" in response:
response = response.split("")[0]
if "[SEP]" in response:
response = response.split("[SEP]")[0]
return response

if __name__ == '__main__':
text = "小王要将150千克含药量20%的农药稀释成含药量5%的药水.需要加水多少千克?"
text_token_ids = torch.tensor(special_encode(
text, tokenizer)).to(model.device).reshape(1, -1)
response = model.generate(text_token_ids, do_sample=False, max_length=512)
response_text = tokenizer.decode(response.cpu()[0], skip_special_tokens=True)

response_text = extract_res(response_text)
print(response_text)
"""输出结果:
首先,我们需要计算出150千克含药量20%的农药中含有多少千克的药。\n\n150千克 * 20% = 30千克\n\n然后,我们需要计算出要得到含药量5%的药水,需要多少千克的药水。\n\n30千克 / 5% = 600千克\n\n最后,我们需要计算出需要加多少千克的水。\n\n600千克 - 150千克 = 450千克\n\n所以答案是,小王需要加450千克的水。
"""
```

### CLI Demo

```

python cli_demo.py \
-m skywork-13b-chat-model-path

```

























# 📣模型样例展示
我们构建了精细的天工场景能力体系,针对其中的10种文创场景构建了1w+高质量数据集,并提出了根据单场景训练难度进行配比的数据混合策略,最终在10个场景上的精度均达到ChatGPT的90%以上。下面是我们Chat模型在10个文创任务上的样例展示。

## Chat模型样例展示
诗词创作

`````

用户:
通过对“红楼梦中的人,都散在眼前”的理解,尝试创作一首描绘梦境与现实的五言律诗。

Skywork-13B-Chat:
梦魂如烟长,夜深觉未央。
幻境入目奇,见所未见状。
灯火映寒窗,字句藏心窍。
醒来忆梦中,泪湿月光凉。

用户:
学校马上举办辩论赛了,希望写一首五言律诗预祝辩论赛圆满顺利,各位选手发挥优越

Skywork-13B-Chat:
赛场展雄风,辩才争锋芒。
临危不惧勇,破釜沉舟忙。
舌灿莲花吐,珠玑溅齿旁。
腹有千秋虑,挥洒文字香。
`````

广告文案

`````
用户:
帮我给华为智能家居设计一条广告语,重点体现智能家居改变生活、让生活更便利

Skywork-13B-Chat:
华为智能家居,科技融入生活,让您的家充满可能。

用户:
以做一个《十天狂减30斤》的海报,海报要求包含健身前后的对比,最终通过健身减肥走向人生巅峰

Skywork-13B-Chat:
海报设计:

标题:《十天狂减30斤,你也可以!》

背景:黑色背景,象征着健身的艰辛和挑战。

左上角:一个明显的标志性logo,可以是一个肌肉线条图或者一个燃脂的图标,代表健身的过程。

右上角:一个成功减去30斤体重的人物形象,穿着帅气的衣服,站在山顶,面带微笑,手持哑铃,舞动手臂,展示出他/她已经完成了这个目标。人物形象应该占据海报的大部分空间,突出重点。

中部:一个倒计时的日历图像,显示还剩下的时间,强调“十天”这个词,以及一些关于健身的提示,比如“均衡饮食+适量运动”。

下部:一些鼓励的话,比如“相信自己,你一定可以的!”或者“汗水铸就辉煌,减肥就是改变生活!”

颜色:主要使用橙色和白色,橙色代表热情和活力,白色代表纯洁和期待。

整体设计:简洁明快,充满动力,易于记忆,引人注目。

文案:清晰明了,字体大且显眼,内容简短有力,节奏紧凑,引人入胜。

附加元素:可以添加一些与健身相关的小插图或者漫画,如举哑铃、跑步、瑜伽等,使海报看起来更有趣味性。

整体风格:简约、直接、自信、激励。

用户:
我主要是做母婴产品的电商直播,最近正值6.18,全体商品打8折最低折扣6.8折。写一份微博动态,能够吸引关注我的人及时进入直播间抢福利

Skywork-13B-Chat:
亲爱的朋友们,好消息!随着6.18购物狂欢节的到来,我们的母婴产品直播间准备了一系列惊喜优惠给大家!全场商品8折起,最低折扣6.8折,品质好货,轻松入手!

️新品推荐:

欢迎来到我们的直播间,首先为大家推荐一款全新上市的母婴产品——【XX品牌婴儿推车】,它采用优质材料,轻便易折叠,设计精美,让你的宝宝在出行时享受到最舒适的体验。还有【YY品牌智能儿童手表】,定位准确,通话清晰,是孩子成长的必备安全装备。

福利预告:

不仅如此,我们还准备了一系列限时福利活动,包括满额免邮、抽奖送豪礼、新品试用等,只要你足够活跃,这些福利就是你的!记得锁定我们的直播间哦!

时间安排:

请大家准时参加我们的直播,分享更多的购物心得和优惠信息。我们将在每天下午3点开始直播,晚上9点结束。期待您的参与,一起度过这个愉快的6.18!

#6.18购物节# #母婴产品# #直播间#

用户:
我是一名运动员,最近比赛取得很好的成绩受到大家的关注和认可。帮我写一份微博文案,帮我感谢大家支持我,要有日常感,并语言随意一些

Skywork-13B-Chat:
当然!以下是一份简单的微博文案:

大家好!非常感谢大家对我最近比赛的关注和支持!真的非常感激!每一个人的鼓励和支持都是我前进的动力。无论是家人、朋友、教练还是队友,你们一直以来的陪伴和支持都是我走向成功的重要推动力。特别要感谢我的父母,他们始终给予我无尽的爱和关怀,是你们让我有了勇气和决心去追求梦想。同时,也要感谢我的教练和队友们,你们的指导和帮助让我不断进步,每一次失败都让我更加坚强,每一次成功都让我更加谦虚。

在这个充满竞争的旅程中,我深深感受到了努力和坚持的重要性。没有什么是轻而易举就可以实现的,每一个成功背后都隐藏着无数的汗水和付出。我希望通过我的努力和坚持,能够激励更多人参与这项运动,追逐自己的梦想。

这个成就只是我人生中的一小部分,我会继续努力学习和成长,为更高的目标奋斗。未来的路还很长,但我相信,只要有你们的支持和鼓励,我一定能走得更远。请大家继续关注我的动态,见证我的成长和努力!

再次感谢大家的支持!爱你们!

#运动员# #拼搏精神#
`````

作文生成

`````
用户:
以“做一个有责任心的人”写一篇议论文。要求:⑴题目自拟,文体不限;⑵字数不少于600;⑶文中不得出现真实的姓名、校名、地名。

Skywork-13B-Chat
标题:做一个有责任心的人

在这个竞争激烈的社会中,每个人都扮演着不同的角色,承担着相应的责任。一个有责任心的人,不仅要对自己负责,还要对他人、集体和社会负责。那么,什么是责任心呢?简单来说,就是对自己、对他人、对社会的承诺和义务的自觉履行。一个有责任心的人,会主动承担起自己的责任,尽心尽力地完成每一项任务,不抱怨不推诿,勇于面对困难和挑战。本文将从以下几个方面论述如何成为一个有责任心的人。

首先,作为一个有责任心的人,我们应该对自己负责。对自己负责,意味着要关爱自己的身心健康,努力提高自身素质。我们要树立正确的人生观和价值观,认识到人生的意义在于奉献和成就。我们要不断学习,充实自己,为个人和社会的发展做出贡献。同时,我们也要关爱自己的情感世界,保持良好的人际关系,培养积极的心态,勇往直前,追求进步。

其次,作为一个有责任心的人,我们应该对他人负责。对他人负责,意味着关心他人,帮助他们解决问题,给予关爱和支持。我们要学会站在别人的角度思考问题,理解和尊重他人,乐于助人,尽可能地帮助那些需要我们帮助的人。我们要学会包容和接纳他人的不足,鼓励他们,给予他们信心和勇气。当我们看到身边的人遇到困境时,我们要敢于伸出援手,帮助他们度过难关。这样,我们才能赢得别人的尊重和信任,也能更好地融入社会。

再次,作为一个有责任心的人,我们还应该对社会负责。对社会负责,意味着要遵守法律法规,维护社会公德,关心社会公益,为社会的和谐稳定做出贡献。我们要做到诚信守法,言行一致,积极参与社会公益活动,关心社会上的弱势群体,尽自己所能去回报社会。我们要用自己的实际行动践行社会主义核心价值观,传播正能量,带动周围的人共同为构建和谐社会贡献力量。

总之,做一个有责任心的人,既是对自己的负责,也是对他人和社会的负责。我们要时刻牢记自己的责任,把责任心化为行动的动力,不断提升自己的道德品质,努力成长为一个有责任心的人。只有这样,我们才能在这个纷繁复杂的社会中立足,实现自己的价值和梦想。

用户:
请以夏夜雨后漫步为主题写一篇散文,通过描写雨后清凉的夜晚氛围,反思现实社会的不安和焦虑,并展现一种积极的生活态度。

Skywork-13B-Chat:
标题:《夏夜雨后的宁静》
夏夜,炎热与喧嚣相伴,像是现实社会中每一个人的繁忙和焦虑。但那天晚上,一场突如其来的雨洗净了夜空的炽热,也沉淀了城市的喧闹。雨后的空气如同凉茶,带着微微的甜,清爽入心。我踏出家门,漫步在这个由雨水涤洗过的世界,试图寻找一些清凉,以及那份久违的宁静。
刚经历了一场纷扰的城市,仿佛换了副面孔。那些被炎炎烈日烤得炙热无比的柏油马路,那些反射着霓虹灯光的玻璃幕墙,都在雨中显得如此清新。树叶轻轻摇曳,低语着大自然的韵律。空气中弥漫着淡淡的青草香,那是雨后的味道,混合着泥土的气息,让人心旷神怡。
脚下的积水倒映着天空的云彩,涟漪一圈圈荡漾开去。远处的灯火逐渐亮起,星星点点的光点缀着这片夜色。车流渐少,街道变得空旷而静谧。偶尔几辆汽车经过,也只是留下一阵阵短暂的水花涟漪。人们早早躲进了屋子里,享受室内的凉爽。而我却选择在这夜色里,任凭雨滴打湿发丝,尽情地呼吸着雨后的新鲜空气。
突然,一阵风吹落了树梢的叶子,伴随着“沙沙”声,宛如大自然的低语。这些叶子在空中飘舞,最后静静地躺在了我的手心。这一刻,我仿佛感受到了生命的律动,那是一种坚韧的力量,一种令人感动的美丽。这风,这雨,这夜色,都让我想起了人生中的某些时刻。
那晚,我思考着自己的人生。每个人都在忙碌、奔波,为了生活而焦躁不安。可是,当我们停下脚步,回望过去,是不是能找到那颗初心?是不是能找回那份曾经的梦想?是不是能拥有那份对生活的热爱和期待?
雨后的世界,是那么纯净;雨后的天地,是那么和谐。我想,生活就像这场雨后的清凉,给我们带来的不仅仅是舒爽,更是希望。我们应该珍惜眼前的一切,珍惜每一个瞬间,因为时光荏苒,岁月如梭,我们都会老去。
有时候,我们需要放慢脚步,去感受生活的美好。不要让自己成为时间的奴隶,而是要学会欣赏它的流逝,享受它带给我们的种种奇妙。我们可以在繁华的城市中找一处安静的角落,聆听大自然的声音,让心灵得以平静。我们可以在忙碌的工作中抽出时间,去体验生活的真谛,让自己成为一个有温度的人。
生活本不缺少美,只是缺少发现美的眼睛。同样,生活本不缺少快乐,只是缺少追求快乐的心境。面对现实的不安和焦虑,我们更需要一颗平和的心,去体会生活的酸甜苦辣,去品尝那些细碎的幸福。
夏夜雨后,我沉浸在这样的夜晚,反思着人生的种种。我感谢这个世界,感谢这场雨,更感谢生活给予我的一切。因为它让我明白了,无论怎样的挫折、困难,都是生活的馈赠,是我们成长的痕迹。只要我们用心去感受,用眼去欣赏,用勇气去面对,我们的生活定会如这雨后的世界一般,清新、明朗、充满希望。

`````

演讲稿生成

`````
用户:
写一个关于环保的演讲稿,5~10分钟的,内容不要太深奥,举一些相关的例子

Skywork-13B-Chat:
尊敬的听众们:
大家好!今天我非常荣幸能够在这里与大家分享有关环保的话题。环保,是我们每个人都应该关注和重视的议题,因为它关系到我们每一个人的生活质量和地球的未来。

让我们先来想象一下,我们的地球是如何被我们所破坏的。空气污染、水污染、垃圾围城,这些问题已经深深地影响着我们的日常生活。我们每天都在使用能源,但是却没有意识到能源的有限性和对环境的影响。森林被砍伐,动物的栖息地被破坏,物种灭绝的速度加快。我们的地球正在发出痛苦的呼声,而我们却常常忽视了这些问题,继续过着浪费和贪婪的生活。

现在,越来越多的科学家和研究人员告诉我们,如果我们不采取行动,那么未来的世界将不再适合人类居住。我们需要改变我们的行为,减少对环境的破坏,并保护我们的地球。

幸运的是,我们有许多可以采取的措施来改善环境状况。首先,我们可以从家庭开始,通过节约用水、减少用塑料袋、垃圾分类等简单的行动来减少碳足迹。我们还可以选择购买环保产品,支持那些致力于环保的企业,促进可持续生产和发展。此外,我们还可以积极参与社区活动,如植树、清理垃圾、宣传环保知识等,让更多的人参与到环保行动中来。

政府也在积极推动环保政策,制定法规和政策来限制污染和资源浪费。例如,建设绿色建筑、推广新能源技术、加强废物回收利用等,这些举措不仅能降低环境污染,还能创造新的就业机会和经济效益。

然而,真正的改变需要我们每个人的共同努力。我们必须认识到,环保不仅是一种责任,更是一种智慧。当我们保护环境时,我们也在保护我们自己。我们的地球是我们共同的家园,只有我们共同努力,才能让它变得更加美好。

最后,我想呼吁大家,让我们一起行动起来,为环保贡献自己的力量。从小事做起,从身边做起,以实际行动来保护我们的地球。让我们携手并肩,为下一代创造一个更美好的世界!

谢谢大家!

用户:
写一份动漫社的专场主持词?最好热血,中二一点。

Skywork-13B-Chat:
尊敬的各位老师,亲爱的同学们,大家好!

欢迎来到这场激动人心的动漫社专场活动!我是您的主持人(主持人姓名),今天将会为大家带来一场充满热情和欢乐的动漫盛宴!我们的主题是——“动漫,不止于二次元”。

动漫,这是一个广受欢迎、备受喜爱的文化形式,它不仅仅存在于二维世界,更在我们每一个人的心中燃烧着三次元的热血与激情。今天,让我们一起走进这个精彩纷呈、无限可能的动漫世界,一同分享那些令人着迷的故事、角色和创作背后的魅力。

首先,让我们重温那些年,那些被誉为经典的动漫作品。从《火影忍者》中的坚韧与奋斗,到《进击的巨人》中的勇气与冒险,再到《海贼王》中的梦想与希望,这些都是动漫所带给我们的,不仅仅是视觉上的冲击,更是心灵深处的触动。这些故事,就像一盏盏明灯,照亮我们内心的世界,给我们提供了无数次的感动和启示。

接下来,我们将带您进入更加精彩的环节。我们邀请了一些对动漫有着独特见解和热爱的嘉宾们,他们将与大家分享他们的心得,讲述他们的故事,让我们一起深入探讨动漫的魅力和影响力。

在这个环节中,我们将有幸听到来自不同领域的动漫爱好者们分享他们的观点,无论是从动漫的制作过程,还是从动漫的艺术设计,亦或是从动漫的社会影响,他们都有自己独到的看法。听他们娓娓道来,相信会给您带来新的视角和启发。

最后,我们还准备了一系列的互动环节,让大家可以尽情展示自己的才华,释放自己的热情。不论是cosplay、短片拍摄,还是动漫绘画,这里都有你施展的舞台。请大家积极参与,让我们一起享受这场属于我们的动漫盛宴!

各位同学,我们都是生活的漫画家,我们用心灵手巧的双手创造出属于我们的动漫世界。让我们用热情点燃热情,用激情传递激情,让动漫的力量在我们每个人身上得以展现,让我们的社团生活更加精彩。

让我们一起,用热血的心,燃烧二次元的热情,共同创造出更多的精彩!感谢大家的参与,我们的动漫社,期待与你们一起,继续在二次元的世界里,寻找那份永不消逝的热血和激情!

谢谢大家!

`````

心得体会

`````

用户:
写一遍经历过电工实训的心得,内容包含焊接、双联开关接线和画电路板

Skywork-13B-Chat:
在过去的一段时间里,我有幸参加了一次电工实训课程,这段时间的学习和实践让我对电力工程有了更深入的理解和掌握。我想通过这篇文章分享一下我在实训过程中的心得体会,包括焊接、双联开关接线和画电路板等方面的学习经验。
首先,我觉得焊接是一个非常重要的技能。在我们的课程中,我学会了如何使用电烙铁和焊锡丝,以及各种电线电缆的连接方法。虽然一开始我对这个过程感到有些困难,但是通过不断的尝试和练习,我逐渐掌握了技巧。我了解到焊接不仅需要耐心和细心,还需要有一定的力量控制,以确保电路的安全性和稳定性。同时,我也认识到,焊接不仅仅是一种技术,更是一种艺术,它需要你懂得如何根据实际情况调整焊接的力度和角度,以实现最佳的结果。
其次,我对双联开关接线有了新的理解。在课堂上,我们学习了两个以上的开关如何并联,这对于我来说是一个很好的机会,可以锻炼我的逻辑思维能力。我发现,双联开关的接线需要考虑到电流的流向,以及各个元器件之间的相互关系。这要求我在操作时必须谨慎,确保每个开关都能正常工作,否则整个电路就无法正常运行。我在实践中体验到,理论知识和实际操作的结合是非常重要的,只有这样才能真正掌握这种技能。
最后,我深感画电路板的复杂性。在开始学习画电路板之前,我以为这只是一项简单的任务,但实际上它涉及到了很多的原理和细节。我在导师的指导下,逐步学习了如何使用绘图工具,以及如何根据设计绘制出精确的电路图。我了解到,每一个元件的位置,每一根电线的走向,都需要仔细考虑,才能最终完成一个完整且功能正常的电路板。这对我来说是一个挑战,但也是一个非常有意义的学习过程。
通过这次实训,我更加深入地理解了电力工程的实质和魅力。我看到了理论知识在实践中的应用,也学到了很多在校园里无法学到的知识和技能。我相信,这些经验将会对我未来的学习和工作带来很大的帮助。总的来说,我觉得这次实训是一次非常宝贵的学习机会,使我对电力工程有了更深的理解和提高。我期待将来能有更多的机会参加这样的活动,以提升自己的技能和知识。

`````

科技文稿

`````
用户:
最近在写“绿色材料的研究与开发”为题的论文,你能帮我写一个大纲吗?

Skywork-13B-Chat:
标题:绿色材料的研究与开发

I. 引言
A. 背景介绍
B. 目的和重要性
C. 研究问题的提出
D. 文章结构

II. 文献综述
A. 绿色材料的定义和分类
B. 绿色材料的发展历程
C. 绿色材料的研究现状及趋势

III. 绿色材料的研究方法
A. 实验设计和步骤
B. 数据收集和分析
C. 模型构建和评估
D. 案例研究

IV. 绿色材料的开发
A. 新型绿色材料的创新
1. 新材料的合成和制备
2. 新材料的性能和应用
B. 改进现有绿色材料的方法
1. 提高材料效率
2. 降低环境影响
C. 政策和市场因素对绿色材料开发的影响

V. 成功案例
A. 具体案例描述
B. 案例分析
C. 案例的启示和教训

VI. 挑战与未来展望
A. 当前绿色材料研究的挑战
B. 未来研究方向
C. 预期成果

VII. 结论
A. 本文的主要发现和观点
B. 对未来研究的建议

参考文献

这是一个基本的大纲,你需要根据自己的研究进行修改和扩展。每个部分应该包含你的研究的具体内容、方法、结果和讨论。

用户:
帮我写一个会发光的裙子的专利说明书,裙子外形由3d打印,外侧喷上有光泽感的涂层,裙底风追了迷你电池组件,将电锤控制器打开后,裙子就会亮起来了。

Skywork-13B-Chat:
发明名称:会发光的裙子

技术领域:
本发明涉及一种发光装置,尤其是一种通过3D打印制造、具有发光效果的裙子。该裙子可应用于各种场合,如舞台表演、娱乐活动等,增加氛围和视觉效果。

背景技术:
目前,市场上存在许多发光服饰产品,但它们往往使用LED灯珠或其他外部光源来实现发光效果,这使得这些产品笨重且不方便携带。此外,这些产品的制作过程复杂,成本较高。因此,需要一种更为轻便、易于使用的发光服饰产品。

发明内容:
本发明提供了一种会发光的裙子,其包括以下组件:
1. 3D打印成型的外壳:利用3D打印技术,可以精确地塑造出裙子的外形和结构,使之成为一个整体。
2. 光泽感涂层:在裙子表面喷涂一层具有光泽感的涂层,例如金属漆或类似材料,以增加其外观效果。
3. 微型电池组件:安装在裙子底部的小型电池组件,用于提供电力给内部电路。
4. 控制器:位于裙子内部的控制器,用于接收电能并控制灯光的开关。
5. 灯光系统:包括电源管理电路、LED灯珠等,用于发出可见光。

实施方式:
1. 首先,根据需求设计裙子的外形和尺寸,然后通过3D打印技术将其制成模型。
2. 接下来,将光泽感涂层涂抹在裙子表面,使其具有所需的外观效果。
3. 将微型电池组件安装在裙子底部,与控制器连接。
4. 在裙子的关键部位安装LED灯珠和其他必需的电子元件。
5. 最后,通过控制器打开电源,使裙子发出光芒。

优点:
1. 本发明的发光裙子具有轻巧、便携的特点,适合各种场合的使用。
2. 通过3D打印技术制造,可以根据具体需求制作出不同形状和尺寸的裙子,满足个性化需求。
3. 光泽感涂层使得裙子在光照下具有独特的外观效果,提升了观赏价值。
4. 内置的微型电池组件使得裙子无需外部电源即可独立工作,方便使用者携带和操作。

附图说明:
由于本发明尚处于专利申请阶段,暂无实物照片或设计图。

具体实施方式:
本发明的具体实施方式可以根据实际需求进行调整和变化,但必须在不偏离发明思想的前提下进行。

权利要求:
1. 一种会发光的裙子,其特征在于,包括3D打印成型的外壳、光泽感涂层、微型电池组件、控制器和灯光系统。
2. 根据权利要求1所述的会发光的裙子,其中,控制器位于裙子内部,用于接收电能并控制灯光的开关。
3. 根据权利要求1或2所述的会发光的裙子,其中,灯光系统包括电源管理电路和LED灯珠等。
4. 根据任何一项前述权利要求所述的会发光的裙子,其中,光泽感涂层用于增强裙子的外观效果。

说明书结束。

用户:
就山竹的功效与作用,写一篇科普文章,突出山竹的营养价值

Skywork-13B-Chat:
标题:山竹的功效与作用——探索美味水果的营养世界

在热带地区,山竹是一种非常受欢迎的水果。它的肉质鲜甜多汁,营养丰富,不仅含有丰富的维生素和矿物质,还有独特的保健功效。那么,山竹的功效与作用有哪些呢?又如何突显其营养价值呢?

首先,我们来了解一下山竹的基本信息。山竹,又称为莽吉柿、凤果,是藤黄科藤黄属的常绿乔木,原产于东南亚。山竹的果实呈圆形或卵圆形,外表皮红褐色,有点像苹果。果肉黄色,质地细腻,味道清甜。每100克山竹果肉中,大约含有150卡路里的能量,富含钾、磷、硫、镁等矿物质,还含有丰富的膳食纤维和抗氧化物质。

接下来,我们来看看山竹的主要功效与作用。

1. 降温解热:山竹性寒,味甘,具有良好的清热解毒作用。夏天食用可以有效预防中暑,降低体内的热量。

2. 缓解便秘:山竹中含有丰富的膳食纤维,能促进肠道蠕动,改善便秘症状。

3. 保护皮肤:山竹含有丰富的维生素C和E,具有很好的抗氧化作用,有助于保护皮肤健康。

4. 增强免疫力:山竹含有多种维生素和矿物质,尤其是维生素C,具有很好的抗病毒作用,能提高人体免疫力。

5. 减肥美容:由于山竹的低糖、低脂,因此成为了减肥人士的理想选择。同时,山竹的抗氧化作用也有助于延缓衰老,使肌肤保持年轻。

那么,如何突显山竹的营养价值呢?

1. 与其他水果相比,山竹的含糖量较低,热量适中,营养密度高。这意味着吃少量的山竹就能获取大量的营养,有助于控制热量摄入。

2. 山竹含有丰富的膳食纤维,能帮助消化,降低胆固醇,预防心血管疾病。

3. 山竹含有丰富的维生素C和E,具有很好的抗氧化作用,能抵抗自由基对身体的损害。

4. 山竹中的矿物质,如钾、磷、硫等,对于维持身体正常的生理功能有很大的帮助。

总的来说,山竹不仅仅是一种美食,更是大自然赋予人类的一份瑰宝。它既满足了我们的口腹之欲,又提供了丰富的营养。让我们在享受美味的同时,也能摄取到丰富的营养。

最后,我们要提醒大家,虽然山竹营养丰富,但也是水果,所以在食用时应适量。对于容易腹泻的人群,建议控制食用量或者避免生食。希望大家在享受美食的同时,也能关注到健康。

`````

记录文

`````
用户:
写一篇关于房地产的工作日志

Skywork-13B-Chat:
日期: xxxx年xx月xx日

天气:晴

今天是一个繁忙的日子,因为我代表公司与几位潜在的购房者进行了深入的谈判。早上,我与买家A在公司会议室就他们感兴趣的一套公寓进行了详细的讨论。我们从地理位置、周边设施、户型设计和装修风格等方面进行了全面的交流,并根据他们的需求调整了房屋销售方案。最终,我们达成了初步的协议,这让我感到非常兴奋。

上午10点,我会见了另一位潜在客户B,他对我们的一栋豪华别墅产生了浓厚的兴趣。我们讨论了不同的房型和价格选项,并就土地所有权和物业管理等问题进行了探讨。客户B提出了一些有深度的问题,我通过耐心解答和解决方案,成功地解决了他的疑虑。

下午2点,我参加了一场关于地产市场趋势的电话会议,主要是为了了解最新的市场动态和竞争对手的情况。这对我今后的工作非常有帮助,因为它使我能够更好地定位我们的房产项目,并为客户提供更优质的服务。

下午3点,我处理了一些文件,包括房屋贷款申请和产权转移手续。虽然这些工作很繁琐,但我意识到它们对于交易的完成至关重要。我确保所有的文件都准确无误,以避免任何延误或错误。

傍晚6点,我回到办公室,整理了一下明天要处理的邮件和更新了房源信息。我还预约了一个客户C,他将过来参观我们的样板房。我预计他会对我们的新开发项目产生浓厚的兴趣,所以我已经做好了充分的准备。

晚上8点,我结束了今天的工作,回顾了一下今天的工作成果。虽然忙碌,但我觉得非常充实。期待明天能带来更多的机会和挑战。

今日总结:今天的工作主要集中在与客户的沟通、市场研究和文件处理上。尽管任务繁重,但我很享受这种忙碌的感觉,因为它让我明白我正在为实现公司的目标而努力。明天我将继续致力于寻找更多的潜在客户,并尽力满足他们的需求。

用户:
请为我创作一篇关于城市交通规划的实践报告,内容要涉及到交通流量、公共交通优势和市民出行习惯,不少于800字

Skywork-13B-Chat:
标题:城市交通规划实践报告:聚焦交通流量、公共交通优势与市民出行习惯

1. 引言

随着城市化进程的飞速发展,城市人口和交通需求日益增长,公共交通作为城市交通的重要组成部分,对于解决城市交通拥堵问题,提高城市运输效率和可持续发展具有重要意义。本报告将以某城市为例,对其交通流量、公共交通优势及市民出行习惯进行分析,并提出相应的优化建议。

2. 交通流量分析

该城市目前的交通流量呈现逐年上升的趋势。在工作日早高峰时期,道路交通流量较大,主要集中在主干道和繁华地段;在晚高峰时期,交通流量有所缓解,但仍存在一定程度的拥堵现象。地铁、公交等轨道交通在缓解交通压力上发挥了积极作用,但仍面临着客运量不足、线路覆盖不全等问题。

3. 公共交通优势

尽管该城市的公共交通系统不断完善,但与私家车、出租车等个体交通工具相比,公共交通的优势仍然不明显。首先,公共交通的运行时间较为固定,无法满足部分市民的个性化需求;其次,公共交通的班次和站点分布有待改进,尤其是夜间和清晨的服务尚需加强;最后,公共交通票价偏高,导致部分市民选择其他交通方式。

4. 市民出行习惯

通过对市民出行习惯的调查发现,大部分市民认为公共交通的优势在于环保、快捷和经济。然而,公共交通的吸引力还存在一些问题,如路线不够便捷、换乘不便、服务质量不高和设施老旧等。此外,步行和骑行等非机动出行方式在该城市中占比较大,但受到环境和安全因素的影响。

5. 结论与建议

针对上述问题,本报告提出以下几点建议:

5.1 优化公共交通线路布局,提高覆盖面积,加强夜间和清晨的服务质量,提高市民对公共交通的依赖性。

5.2 政府加大对公共交通的投入,提升公共交通的服务水平,如增加班次、提高车辆舒适度、增设新站等。

5.3 鼓励市民改变出行方式,如骑自行车、乘坐网约车等,减少私家车和摩托车的使用,从而减轻交通压力。

5.4 加强交通管理,提高交通执法力度,规范交通行为,确保道路畅通。

5.5 引入智能化技术,如智能交通系统、无人驾驶等,提高交通运输效率和安全性。

6. 结语

城市交通规划需要综合考虑交通流量、公共交通优势和市民出行习惯等多方面因素,以人为本,注重细节,才能实现城市交通的高效、环保和可持续发展。我们期待看到更多实际措施和政策,推动城市交通向更好的方向发展。

用户:
本人外贸公司从事样品管理工作,求一份年度总结报告

Skywork-13B-Chat:
年度总结报告
尊敬的领导,同事们:

在过去的一年里,在公司领导和各位同事的大力支持下,我有幸参与并负责样品管理工作,为公司的对外贸易活动提供了有效的样品保障。通过一年来的努力和实践,我对样品管理工作有了更深入的认识和理解,同时也取得了一定的成绩。现将2019年度的工作总结如下:

一、熟悉业务流程,明确工作职责

在日常工作中,我认真学习和研究公司的各项业务流程,掌握了样品的接收、入库、出库、盘点等操作规程,明确了自己的工作职责和工作目标。同时,我还学会了利用电脑软件进行样品信息的录入和管理,提高了工作效率。

二、严格样品管理,确保质量控制

我深知样品质量是企业的生命线,因此在工作中,我始终坚持严格样品管理,把好质量关。首先,在接收样品时,我认真核对供应商提供的样品信息,确保与实际相符;其次,在入库过程中,我对样品进行分类存放,保证样品的质量不受损失;最后,在出库时,我根据客户订单和业务员需求,准确及时地提供样品,确保满足客户需求。

三、优化库存结构,降低库存成本

为了降低库存成本,提高资金周转率,我积极参与制定库存优化方案,建议和实施了一些措施,如定期清理滞销样品、与供应商协商减少库存积压等。这不仅减少了库存压力,还为公司节省了大量的仓储费用。

四、加强与各部门沟通协作,提高服务水平

在工作中,我加强与采购部、生产部、财务部等部门的沟通与协作,确保样品信息的实时共享和流通。遇到问题时,我能积极主动协调解决,提高了工作效率,降低了出错率。

五、总结

回顾一年来的工作,我深感责任重大,任务繁重。在看到成绩的同时,也发现了自身的不足。在新的一年里,我将进一步加强自身学习,不断提高工作能力,改进工作方法,以更高的标准要求自己,为公司的发展贡献自己的力量。

谢谢大家!

[您的名字]
[日期]

`````

评论评语

`````
用户:
为史铁生的《我与地坛》写一篇300字左右的书评

Skywork-13B-Chat:
《我与地坛》是史铁生的代表作,也是他十五年来摇着轮椅在地坛思索的结晶。这篇文章以深情的笔触描绘了作者与地坛的深厚关系,以及他在这个大千世界中所领悟到的人生哲理。地坛既是他痛苦的根源,也是他灵感的源泉;既是他发泄情感的地方,也是他获得力量的源泉。在这里,他体验了人生的酸甜苦辣,也找到了自我解脱的方式。这篇文章不仅展现了他对母亲的深深怀念,还体现了他对生命的独特理解和感悟,让我们深刻地理解到了人生的意义在于经历与感悟。史铁生以其独特的视角和深沉的感情,将地坛的荒芜与衰败转化为对生命的感悟和对未来的希望,充分展示了他的人文关怀和坚韧不拔的精神。这篇文章充满了哲思,读后让人深受触动和启发。

用户:
我有一个老师,上课幽默风趣,我们都很喜欢他,给他一个评语

Skywork-13B-Chat:
您是一位非常出色的老师,学生们对您的幽默感和课堂互动感到非常欣赏。您总是能够将课程内容以有趣且易于理解的方式呈现出来,使学生们更加专注和积极地参与学习。您的教学风格激励了我们的兴趣,并激发了我们对该领域的热情。您不仅是一位杰出的教育者,还是一位真正关心学生的导师,您的幽默感和关怀让我们在学习过程中感到轻松和愉快。感谢您的付出和努力,您的课是我们大学生活中的美好回忆。

用户:
从思想、工作能力、团队合作三个方面评价员工,300字以内

Skywork-13B-Chat:
员工A在思想上有着坚定的信念和高尚的道德品质,对公司的目标持有高度的责任感,始终保持着积极上进的工作态度。他/她具有良好的职业道德和行为规范,始终坚持诚实守信,踏实敬业,勇于承认自己的错误并愿意改进。他/她深刻理解并遵守公司的价值观,以客户为中心,始终保持对工作的热情和耐心,为客户提供优质的服务。

在工作能力方面,员工A展现出了出色的技能和创新能力。他/她拥有扎实的专业知识和丰富的实践经验,能够熟练运用各种工具和技术,解决问题和挑战。他/她持续学习新的知识和技能,不断提升自己的专业水平,使自己成为部门中不可或缺的一员。他/她在面对困难和压力时,能够独立思考和解决问题,同时也能有效地与团队成员协作,共同完成任务。

在团队合作方面,员工A是一个值得信赖和尊重的队友。他/她善于倾听他人的意见,能够有效地表达自己的观点,并且乐于助人。他/她在团队中起到了很好的桥梁作用,促进了团队成员之间的沟通和交流,提高了团队的凝聚力和效率。他/她总是能够积极参与团队活动,提供支持和帮助给需要的同事,推动团队向前发展。

总的来说,员工A在思想、工作能力和团队合作三个方面都表现得非常优秀,是我们公司的宝贵财富。我相信他/她将会在未来的工作中继续发挥重要作用,为公司的发展做出更大的贡献。

`````

问题生成

`````
用户:
我是一名初中语文老师,下节课要教学生《桃花源记》,帮我准备5个课堂提问的问题。

Skywork-13B-Chat:
1. 这篇文章的作者是谁?他的写作风格如何?
2. 文中的桃花源是什么样的地方?它给你什么感受?
3. 文中的人物形象有哪些?他们的行为和性格特点如何?
4. 你认为桃花源中最重要的元素是什么?为什么?
5. 这篇文章想要表达什么主题?对我们现代人有什么启示?

用户:
作为一名餐饮行业的店铺经理,你想了解该季度用户的菜品偏好、环境评价等相关信息,指导店铺的下个季度战略规划。你会问用户哪些问题?

Skywork-13B-Chat:
以下是一些可能有用的问题:
1. 您最喜欢的菜品是什么?为什么?
2. 您觉得我们的菜品中哪些味道或风味最受欢迎?
3. 您是否尝试过我们的新菜品?如果是,请分享一下您的体验和感受。
4. 您最喜欢的就餐时间是什么时候?您更倾向于选择午餐还是晚餐?
5. 您更喜欢在室内用餐还是室外用餐?如果在室内,您更喜欢哪种环境?(例如:安静、舒适、家庭友好、社交等)
6. 您愿意支付多少钱享用我们的菜品?您认为价格合理吗?
7. 您最喜欢的菜品照片是什么?您经常点哪个?
8. 您对我们的服务有何评价?您认为我们需要改进的地方在哪里?
9. 您认为我们的餐厅位置方便吗?是否容易找到?
10. 您会向朋友、家人推荐我们的餐厅吗?为什么?
这些问题可以帮助您了解用户对餐饮店的喜好和反馈,以便制定下一个季度的战略计划。

用户:
我是一个节目策划,本期主题是邀请明星根据环保问题进行辩论,请设计三个辩题。要求辩题简单好理解,正反方的观点都符合主流价值观。辩题需要有噱头,给节目制造看点。

Skywork-13B-Chat:
1. 垃圾分类,谁说了算?
正方:支持严格垃圾分类政策,认为其能够有效提高资源回收率和降低环境污染。
反方:反对过度强调垃圾分类,主张简化分类标准,减少民众参与成本。
2. 绿色出行,真的更环保吗?
正方:步行、骑行代替开车可以大幅降低碳排放,保护环境,缓解交通拥堵。
反方:城市公共交通系统不完善,骑电动车或开汽车短途出行更方便,减少通勤时间。
3. 电子产品,更新还是复用?
正方:环保应考虑使用二手电子产品,减少废弃物产生,节约地球资源。
反方:新电子产品不断推出,应该鼓励消费者更新换代,追求科技进步。

`````

起名字

`````

用户:
汽车制造公司计划推出一款电动SUV,需要一个富有未来感的车型名称,您有何建议?

Skywork-13B-Chat:
以下是几个建议:
1. 未来之星 (Star of the Future)
2. 新能源领袖 (New Energy Leaders)
3. 智能先驱 (Intelligent Pioneer)
4. 绿色巨兽 (Green Beast)
5. 未来运动 (Future Sport)
6. 电动探险家 (Electric Adventurer)
7. 远航者 (Navigators)
8. 电力精灵 (Electric Elf)
9. 未来旅行者 (Future Traveler)
10. 智能环保车 (Intelligent Eco-Drive)
希望这些建议能帮到您!

用户:
我准备开设一家书店,需要一个与文学相关的店铺名称,能够吸引书籍爱好者,帮我取10个吧

Skywork-13B-Chat:
好的,以下是为您提供的10个与文学相关的店铺名称:
1. 文墨书香
2. 悦读之旅
3. 书香门第
4. 文学空间
5. 经典坊
6. 笔墨书阁
7. 百草堂
8. 翰墨轩
9. 古韵书屋
10. 文艺书房

希望这些名称能给您带来启发,祝您的书店生意兴隆!

用户:
我们是一个6人的团队,要组队参加一个志愿者活动,求一个队名,最好解释一个意义,要有创意的,6个字左右

Skywork-13B-Chat:
如果你想要一个有意义的队名,可以考虑以下几种:
1. "爱心使者",这个队名表示你们是一个充满爱心和热情的团队,致力于帮助他人。
2. "快乐志愿团",这个队名表示你们是一群热爱生活、乐于助人的志愿者。
3. "共筑梦想",这个队名表示你们一起合作,共同努力实现别人的梦想。
4. "爱的守护者",这个队名表示你们将关爱和保护他人作为自己的责任。
5. "志愿者之星",这个队名表示你们是闪耀的明星,代表着爱心和奉献。
希望以上的队名能给您带来灵感!

`````

# 量化部署

## 8bit量化(Int8 Quantization)

skywork 采用主流8bits量化方法:[BitsAndBytes](https://github.com/TimDettmers/bitsandbytes)。该方法量化后性能基本无损,且已经集成到transformers库中,基于BitsAndBytes,我们提供在线量化和离线8bits模型两种方式。

以下我们提供示例说明如何使用int8量化模型,在开始使用之前,请先安装BitsAndBytes库并安装所需依赖包,具体安装方式见[BitsAndBytes](https://github.com/TimDettmers/bitsandbytes)库。

### 在线量化(Online Quantization)

```python
model = AutoModelForCausalLM.from_pretrained("skywork-13B-Base", torch_dtype=torch.bfloat16,load_in_8bit=True, trust_remote_code=True).eval()
```

### 离线量化(Offline Quantization)

```python
model = AutoModelForCausalLM.from_pretrained("skywork-13B-Base-8bits", device_map="auto", torch_dtype=torch.bfloat16,trust_remote_code=True).eval()
```

### 量化效果(Evaluation)

我们对量化模型在基准评测数据集上做了测试,结果如下所示:

| Precision | C-Eval | MMLU | CMMLU |
| --------- | ------ | ----- | ----- |
| bf16 | 60.6 | 61.8 | 62.1 |
| 8bits | 58.5 | 61.8 | 61.0 |

### 显存占用(GPU Mem in GB)

| Precision | Skywork-13B |
| --------- | ----------- |
| bf16 | 25.91 |
| 8bits | 13.57 |

# 模型微调
## 全量微调
使用Skywork-13B-Base模型进行预训练微调
```bash
## preprocess continue pretraining data
## Because pre-training data is usually large, we use a script to process the training data separately.
python train/pt_data_preprocess.py \
-t $MODEL_PATH \
-i data/pt_train.jsonl \
-o data_cache/pt_train_demo

## launch training
export WANDB_API_KEY=YOUR_WANDB_KEY
export WANDB_ENTITY=skywork
export WANDB_PROJECT=skywork-13b-opensource

export MODEL_PATH=skywork-13b-models/skywork-13b-base
export DATA_CACHE_DIR=data_cache/pt_train_demo/pt_train
bash bash_scripts/skywork_13b_pt.sh

```
使用Skywork-13B-Base模型进行有监督微调(SFT, Supevise Fine-tuning)

```bash
## preprocess data and launch training
export WANDB_API_KEY=YOUR_WANDB_KEY
export WANDB_ENTITY=skywork
export WANDB_PROJECT=skywork-13b-opensource

export SFT_DATA_DIR=data/sft_data
export DATA_CACHE_DIR=data_cache/sft_train_demo
bash bash_scripts/skywork_13b_sft.sh

```

## LoRA微调
使用Skywork-13B-Base模型以及LoRA进行预训练微调
```bash
## preprocess continue pretraining data
## Because pre-training data is usually large, we use a script to process the training data separately.
python train/pt_data_preprocess.py \
-t $MODEL_PATH \
-i data/pt_train.jsonl \
-o data_cache/pt_train_demo

export WANDB_API_KEY=YOUR_WANDB_KEY
export WANDB_ENTITY=skywork
export WANDB_PROJECT=skywork-13b-opensource

export MODEL_PATH=skywork-13b-models/skywork-13b-base
export DATA_CACHE_DIR=data_cache/pt_train_demo/pt_train
bash bash_scripts/skywork_13b_pt_lora.sh

```

使用Skywork-13B-Base模型以及LoRA进行有监督微调(SFT, Supevise Fine-tuning)

```bash

export WANDB_API_KEY=YOUR_WANDB_KEY
export WANDB_ENTITY=skywork
export WANDB_PROJECT=skywork-13b-opensource

export SFT_DATA_DIR=data/sft_data
export DATA_CACHE_DIR=data_cache/sft_train_demo
bash bash_scripts/skywork_13b_sft_lora.sh

```

# 社区和生态
## 华为昇腾
### MindSpore框架
[MindFormers]( https://gitee.com/mindspore/mindformers)是一个基于昇思框架 (MindSpore) 并支持大模型训练、微调、评估、推理、部署的全流程开发套件,[Skywork-13B](https://gitee.com/mindspore/mindformers/tree/dev/research/skywork)模型已集成于此套件,支持用户基于昇腾AI硬件算力进行模型微调、部署。具体使用方式可见我们在昇思平台上的[README]( https://gitee.com/mindspore/mindformers/tree/dev/research/skywork/skywork.md)。

### 大模型体验平台
[昇思大模型平台](​https://xihe.mindspore.cn)基于昇思MindSpore AI框架、MindFormers大模型开发套件与昇腾硬件算力,将[Skywork-13B](https://xihe.mindspore.cn/modelzoo/skywork_13b)大模型能力开放给公众,欢迎大家使用。

# 声明和协议

## 声明

我们在此声明,不要利用Skywork模型进行任何危害国家社会安全或违法的活动。另外,我们也要求使用者不要将 Skywork 模型用于未经适当安全审查和备案的互联网服务。我们希望所有的使用者都能遵守这个原则,确保科技的发展能在规范和合法的环境下进行。

我们已经尽我们所能,来确保模型训练过程中使用的数据的合规性。然而,尽管我们已经做出了巨大的努力,但由于模型和数据的复杂性,仍有可能存在一些无法预见的问题。因此,如果由于使用skywork开源模型而导致的任何问题,包括但不限于数据安全问题、公共舆论风险,或模型被误导、滥用、传播或不当利用所带来的任何风险和问题,我们将不承担任何责任。

We hereby declare that the Skywork model should not be used for any activities that pose a threat to national or societal security or engage in unlawful actions. Additionally, we request users not to deploy the Skywork model for internet services without appropriate security reviews and records. We hope that all users will adhere to this principle to ensure that technological advancements occur in a regulated and lawful environment.

We have done our utmost to ensure the compliance of the data used during the model's training process. However, despite our extensive efforts, due to the complexity of the model and data, there may still be unpredictable risks and issues. Therefore, if any problems arise as a result of using the Skywork open-source model, including but not limited to data security issues, public opinion risks, or any risks and problems arising from the model being misled, abused, disseminated, or improperly utilized, we will not assume any responsibility.

## 协议

社区使用Skywork模型需要遵循[《Skywork 模型社区许可协议》](https://github.com/SkyworkAI/Skywork/blob/main/Skywork%20模型社区许可协议.pdf)。Skywork模型支持商业用途,如果您计划将Skywork模型或其衍生品用于商业目的,无需再次申请, 但请您仔细阅读[《Skywork 模型社区许可协议》](https://github.com/SkyworkAI/Skywork/blob/main/Skywork%20模型社区许可协议.pdf)并严格遵守相关条款。

The community usage of Skywork model requires [Skywork Community License](https://github.com/SkyworkAI/Skywork/blob/main/Skywork%20Community%20License.pdf). The Skywork model supports commercial use. If you plan to use the Skywork model or its derivatives for commercial purposes, you must abide by terms and conditions within [Skywork Community License](https://github.com/SkyworkAI/Skywork/blob/main/Skywork%20Community%20License.pdf).

[《Skywork 模型社区许可协议》》]:https://github.com/SkyworkAI/Skywork/blob/main/Skywork%20模型社区许可协议.pdf

[[email protected]]: mailto:[email protected]

# 引用和联系我们
如果您觉得我们的工作对您有帮助,欢迎引用我们的论文~
```
@misc{wei2023skywork,
title={Skywork: A More Open Bilingual Foundation Model},
author={Tianwen Wei and Liang Zhao and Lichang Zhang and Bo Zhu and Lijie Wang and Haihua Yang and Biye Li and Cheng Cheng and Weiwei Lü and Rui Hu and Chenxia Li and Liu Yang and Xilin Luo and Xuejie Wu and Lunan Liu and Wenjun Cheng and Peng Cheng and Jianhao Zhang and Xiaoyu Zhang and Lei Lin and Xiaokun Wang and Yutuan Ma and Chuanhai Dong and Yanqi Sun and Yifu Chen and Yongyi Peng and Xiaojuan Liang and Shuicheng Yan and Han Fang and Yahui Zhou},
year={2023},
eprint={2310.19341},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
```

```
@article{skyworkmath,
title={SkyMath: Technical Report},
author={Liu Yang, Haihua Yang, Wenjun Cheng, Lei Lin, Chenxia Li, Yifu Chen, Lunan Liu, Jianfei Pan, Tianwen Wei, Biye Li, Liang Zhao, Lijie Wang, Bo Zhu, Guoliang Li, Xuejie Wu, Xilin Luo, Rui Hu},
journal={arXiv preprint arXiv: 2310.16713},
url={https://arxiv.org/abs/2310.16713},
year={2023}
}
```

```
@article{Skywork_Multi-Modal_Group_Empirical_Study_Towards_2023,
author = {Skywork Multi-Modal Group},
month = sep,
title = {{Empirical Study Towards Building An Effective Multi-Modal Large Language Model}},
year = {2023}
}

```