AIGC-LLM-Prompt工程技能综述
最近研究在AGI方面投入精力较多,通过Workflow的方式,做了一些LLM+知识库+Tools的Agent。其中Workflow的实现,一种是通过Prompt来编排,另一种是LangGraph的方式。而Prompt书写质量的好坏,也严重影响了最后的效果。整理了当前主流的Prompt写法。其中包括一些Prompt示例,以及一些Prompting的思想。梳理、总结分析了20篇关于Prompt Engineering的论文。
最近研究在AGI方面投入精力较多,通过Workflow的方式,做了一些LLM+知识库+Tools的Agent。其中Workflow的实现,一种是通过Prompt来编排,另一种是LangGraph的方式。而Prompt书写质量的好坏,也严重影响了最后的效果。整理了当前主流的Prompt写法。其中包括一些Prompt示例,以及一些Prompting的思想。梳理、总结分析了20篇关于Prompt Engineering的论文。
BERT(Bidirectional Encoder Representations from Transformers)是第一个基于Transformer结构的纯Encoder模型,它在提出时横扫了整个NLP界,在流行的GLUE基准上超过了当时所有的最强模型。随后的一系列工作对BERT的预训练目标和架构进行调整以进一步提高性能。目前,纯Encoder模型依然在NLP行业中占据主导地位。
论文:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
好用的语料设计服务,可一键微调语料设计生成,支持模型:
针对教材内容,设计了多轮对话语料,可以定制风格,并且设计了三种对话能力:
Transformer是2017年Google论文《Attention is All You Need》提出的一种模型结构,颠覆了通过RNN进行序列建模的思路,已被广泛应用于NLP各个领域,如出色的Bert、GPT都是基于Transformer模型。
SadTalker[开源] | Wav2Lip[开源] |
---|