https://github.com/wj-mcat/agent-handbook
handbook for learning agent
https://github.com/wj-mcat/agent-handbook
agent llm prompt-engineering prompt-flow prompt-tuning
Last synced: 3 months ago
JSON representation
handbook for learning agent
- Host: GitHub
- URL: https://github.com/wj-mcat/agent-handbook
- Owner: wj-Mcat
- License: apache-2.0
- Created: 2024-06-17T05:07:17.000Z (about 1 year ago)
- Default Branch: master
- Last Pushed: 2024-09-15T00:04:53.000Z (10 months ago)
- Last Synced: 2024-10-06T05:41:53.091Z (9 months ago)
- Topics: agent, llm, prompt-engineering, prompt-flow, prompt-tuning
- Language: TypeScript
- Homepage: https://wj-mcat.github.io/agent-handbook/
- Size: 8.26 MB
- Stars: 3
- Watchers: 1
- Forks: 0
- Open Issues: 1
-
Metadata Files:
- Readme: README.md
- License: LICENSE
Awesome Lists containing this project
README
## 因为热爱,所以分享
我始终相信开源,也热爱分享在工作学习过程中对于Agent所有觉得有价值、有意思的知识点,并定期将其编写成一篇篇博客,进而跟大家讨论学习,共同进步。
也非常欢迎大家能够一起贡献 PR 来不断完善此博客,不断完善,让其成为一个真正的 Agent Handbook。
## 知识点
### Agent Introduction
### Agent Workflow
强烈推荐大家先看吴恩达老师的这篇演讲来入门了解 Agent Workflow:
[](https://www.youtube.com/watch?v=sal78ACtGTc)
## Paper Reading
### ORPO: Monolithic Preference Optimization without Reference Model
ORPO 提出了一个非常创新的方法:将 模型对齐阶段 和 SFT阶段 融合到一起,进而提升模型的训练方法。
在 SFT 阶段,就直接将对齐的数据加入到训练当中,进而在SFT 阶段就已经实现了模型对齐的能力。
### Self-play with Execution Feedback: Improving Instruction-following Capabilities of Large Language Models
`解决的问题`:此论文旨在提升提供一个创建高质量指令跟随数据集的方法,进而提高在不同方法中指令学习的能力。
此论文中是通过生成一个函数函数来检测 Response 内容是否正确,进而提升数据质量。
> 此论文的方法不算是很创新,可是从一定程度上告诉我们:数据质量的重要性。
## Join the community
- Follow us on [X ](https://twitter.com/wj_Mcat)
- [Hit us up on discord](https://discord.gg/gJNKfdTr)
- Get my latest blogs on [知识星球](https://t.zsxq.com/soEav)