Ecosyste.ms: Awesome
An open API service indexing awesome lists of open source software.
https://github.com/rqluo/mixtex-datahub
LaTeXDataHub is an open-source platform dedicated to the sharing and contribution of real-world LaTeX image datasets and their annotations, allows users to upload, download, and contribute to a growing collection of high-quality LaTeX datasets.
https://github.com/rqluo/mixtex-datahub
data deep-learning latex machine-learning ocr
Last synced: 3 months ago
JSON representation
LaTeXDataHub is an open-source platform dedicated to the sharing and contribution of real-world LaTeX image datasets and their annotations, allows users to upload, download, and contribute to a growing collection of high-quality LaTeX datasets.
- Host: GitHub
- URL: https://github.com/rqluo/mixtex-datahub
- Owner: RQLuo
- License: mit
- Created: 2024-07-29T18:00:22.000Z (5 months ago)
- Default Branch: main
- Last Pushed: 2024-08-13T03:10:56.000Z (5 months ago)
- Last Synced: 2024-09-22T22:04:17.128Z (3 months ago)
- Topics: data, deep-learning, latex, machine-learning, ocr
- Language: Jupyter Notebook
- Homepage:
- Size: 18.6 KB
- Stars: 10
- Watchers: 1
- Forks: 0
- Open Issues: 0
-
Metadata Files:
- Readme: README.md
- License: LICENSE
Awesome Lists containing this project
README
# LaTeXDataHub
LaTeXDataHub is an open-source platform dedicated to the sharing and contribution of real-world LaTeX image datasets and their annotations, allows users to upload, download, and contribute to a growing collection of high-quality LaTeX datasets. To ensure that the data is not dependent on third-party platforms and can be shared everywhere, I recommend using magnet links to deliver the dataset.LaTeXDataHub 是一个开源平台,致力于共享和贡献真实 LaTeX 图像数据及其注释,允许上传、下载并为高质量 LaTeX 数据集做出贡献(数据集接受**任何语言**)。为确保数据不依赖于第三方平台,以及在任何地方都能够共享,我们建议使用磁力链接传递数据集。
## 建议数据标注方法
对于较为标准的现代打印latex文档的数据图片,您可以直接采用MixTeX,它已有较高的准确率,您只需要纠正少量的错误。
对于手写或者老教材latex的数据集,目前MixTeX暂时还没有训练过,表现的不太好。
您可以采用chatgpt或者claude辅助标注。您可以参考以下提示词:_latex ocr 直接输出,所有公式用align*,文字放在外面,文内公式用\( .. \),不要废话,不要继承直接输出ocr结果:_
## 常见数据集收集项目1:现代打印文档MixTeX表现较差数据集 (对应模型参数<100M) 接受无标注图片
使用电脑截图可以轻松获取,对于该数据集,您通常可以直接采用MixTeX,它已有较高的准确率,您只需要纠正少量的错误。
我们会在将来的MixTeX应用上提供四个数据标注选项分别是:(完整修改标注提交,小错误反馈,公式编译失败反馈,重复反馈)
对于完整修改标注提交我们将延续之前的训练,对于反馈我们将会探索RLHF训练方法。
![85bc606db5bb0fba07acd2656cbf777](https://github.com/user-attachments/assets/6e9bca0b-017a-40e2-be81-2c65d931e552)### Latex 伪代码
![image](https://github.com/user-attachments/assets/b3a19765-66c8-4888-81b8-d7184f7347e0)![image](https://github.com/user-attachments/assets/3fa05540-aa42-4436-b40c-0cc88754a4e0)
参考数据集:https://huggingface.co/datasets/stanford-crfm/i2s-latex?row=0
## 特殊数据集收集项目1:手写latex草稿数据集 (对应模型参数 150-200M) 接受无标注图片
手写latex 可以是平时作业的手写稿件,也可以是在推导过程中的草稿,**需要分为两类(整洁,草稿)**。
![屏幕截图 2024-08-05 025839](https://github.com/user-attachments/assets/893d395d-60e4-4c78-a6b7-fc0f97f02528)## 特殊数据集收集项目2:黑板板书latex数据集 (对应模型参数 150-200M) 接受无标注图片
请在此声明您目前准备截取黑板板书的视频链接,或者您经老师允许在课上的拍照。
![305fe6afff65edd8015bb24509d74b6](https://github.com/user-attachments/assets/3dbc950c-2594-4ab9-9dcd-fb7a6826a61d)## 复杂指令数据集1:识别latex并翻译成[语言] (对应模型参数 300-600M)
## 复杂指令数据集2:识别latex并用自己的话重述 (对应模型参数 300-600M)
## 超复杂指令数据集1:识别板书并写成Lecture Note (对应模型参数 > 2B)
## 超复杂指令数据集2: 识别latex并用前置知识解释 (对应模型参数 > 2B)
## 超复杂指令数据集3: 批改过的试卷以及正确答案 (对应模型参数 > 2B)
## claude都做不到的数据集1:证明和推理 (还不知道用啥模型能实现,该数据集必须有来源,最好是经典教材上的证明和推导)