Deeeplearning模型-NLP-Transformer模型

Deeeplearning模型-NLP-Transformer模型Deeeplearning模型-NLP-Transformer模型Deeeplearning模型-NLP-Transformer模型

Transformer是2017年Google论文《Attention is All You Need》提出的一种模型结构,颠覆了通过RNN进行序列建模的思路,已被广泛应用于NLP各个领域,如出色的Bert、GPT都是基于Transformer模型。

论文:Attention Is All Your Need

阅读全文

Deeeplearning模型-NLP-NLP基础

NLP(Nature Language Processing,自然语言处理)是计算机学科及人工智能领域一个重要的子学科,它主要研究计算机如何处理、理解及应用人类语言。所谓自然语言,指人说的话、人写的文章,是人类在长期进化过程中形成的一套复杂的符号系统。

NLP概述

NLP的主要任务

主要可分为两大类:

  • 基于现有文本或语料的分析
  • 生成新的文本或语料

阅读全文

数字人-数字人技术效果对比

调研了几种主流的数字人技术,从唇形、表情、动作等方面进行了对比。

阅读全文

AIGC-大模型微调-LLama2-Lora医学大模型微调【风格学习】

AIGC-大模型微调-LLama2-Lora医学大模型微调【风格学习】

大模型预训练成本高昂,需要庞大的计算资源和大量的数据资源,一般个人和企业难以承受。为解决这一问题,谷歌率先提出Parameter-Efficient Fine-Tuning (PEFT)技术,旨在通过最小化微调参数的数量和计算复杂度,来提高预训练模型在新任务上的性能,从而缓解大型预训练模型的训练成本。这样一来,即使计算资源受限,也可以利用预训练模型的知识来迅速适应新任务,实现高效的迁移学习。其中Lora微调为常用的PEFT技术。

阅读全文

AIGC-大模型微调-OpenAI-GPT3.5 Turbo医学大模型微调【风格学习】

AIGC-大模型微调-OpenAI-GPT3.5 Turbo医学大模型微调【风格学习】AIGC-大模型微调-OpenAI-GPT3.5 Turbo医学大模型微调【风格学习】AIGC-大模型微调-OpenAI-GPT3.5 Turbo医学大模型微调【风格学习】

通过微调训练,让模型从更多的提示(Prompt)数据中进行少量学习,从而让模型具备特定的任务能力,可改变模型的风格、语调、输出格式等,并提高预期输出结果的可靠性。对模型进行微调后,您将不再需要在提示(prompt)中提供示例。这样可以节省成本并实现更低延迟的请求。

阅读全文

AIGC-StableDiffusion-Img2Img

AIGC-StableDiffusion-Img2ImgAIGC-StableDiffusion-Img2ImgAIGC-StableDiffusion-Img2Img

以下为基于Stablediffusion服务实现的文生图、图生图、图生视频效果。

阅读全文

AIGC-大模型微调-LLama2-Lora医学大模型微调

AIGC-大模型微调-LLama2-Lora医学大模型微调AIGC-大模型微调-LLama2-Lora医学大模型微调AIGC-大模型微调-LLama2-Lora医学大模型微调

LLama2:meta-llama/Llama-2-7b-chat-hf
基础模型:conghao/llama2-7b-chat-hf
Lora模型:conghao/llama2-qlora-med-zh

基础模型为基于Llama-2-7b-chat-hf将LLama的原始权重文件转换为Transformers库对应的模型文件格式。可基于此模型进行微调。

Lora模型llama2-qlora-med-zh为基于医学数据集训练好的模型权重,损失函数收敛至0.2924。

阅读全文

AIGC-大模型微调-LLama2-QLoRA微调

AIGC-大模型微调-LLama2-QLoRA微调AIGC-大模型微调-LLama2-QLoRA微调AIGC-大模型微调-LLama2-QLoRA微调

QLoRA, 它是一种”高效的微调方法”, 以LLama 65B参数模型为例,常规16 bit微调需要超过780GB的GPU内存,而QLoRA可以在保持完整的16 bit微调任务性能的情况下, 将内存使用降低到48GB,即可完成微调。

阅读全文

AIGC-大模型微调-PEFT技术简介

AIGC-大模型微调-PEFT技术简介AIGC-大模型微调-PEFT技术简介AIGC-大模型微调-PEFT技术简介

最近,基于LLama2对垂类领域的数据集做了LoRA微调,在微调过程中,系统学习了下微调方案,并对Fine Tuning方案做了对比总结。

因大模型预训练成本高昂,需要庞大的计算资源和大量的数据资源,一般个人和小企业难以承受(百度、头条花了上百亿购买显卡)。为解决这一问题,谷歌率先提出Parameter-Efficient Fine-Tuning (PEFT)技术,旨在通过最小化微调参数的数量和计算复杂度,来提高预训练模型在新任务上的性能,从而缓解大型预训练模型的训练成本。这样一来,即使计算资源受限,也可以利用预训练模型的知识来迅速适应新任务,实现高效的迁移学习。 因此PEFT技术在提升大模型效果的同时,缩短模型训练时间和成本。

阅读全文

GUI-应用程序打包与安装

GUI-应用程序打包与安装

将python程序打包为应用程序。pyinstaller将程序代码打包为app,再使用create-dmg将app压缩为磁盘文件,可解压安装。

阅读全文