Deep Learning & AI · Optoelectronics · Materials Analysis · Semiconductor Physics
黑客马拉松项目,AI雅思先锋
最近研究在AGI方面投入精力较多,通过Workflow的方式,做了一些LLM+知识库+Tools的Agent。其中Workflow的实现,一种是通过Prompt来编排,另一种是LangGraph的方式。而Prompt书写质量的好坏,也严重影响了最后的效果。整理了当前主流的Prompt写法。其中包括一些Prompt示例,以及一些Prompting的思想。梳理、总结分析了20篇关于Prompt Engineering的论文。
BERT (Bidirectional Encoder Representations from Transformers) 是由 Google 团队在 2018 年提出的预训练语言模型底座。它是第一个基于 Transformer 架构的深层双向 Encoder。它的出现改变了自然语言处理(NLP)领域的范式,在发布时横扫了多项自然语言处理任务,在流行的 GLUE 基准上超过了当时所有的最强模型。
目前,基于 BERT 衍生的纯 Encoder 模型依然在 NLP 行业(尤其是文本分类、实体识别等自然语言理解任务 NLU)中占据着主导地位。
论文:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
好用的语料设计服务,可一键微调语料设计生成,支持模型:
针对教材内容,设计了多轮对话语料,可以定制风格,并且设计了三种对话能力: