发表评论取消回复
相关阅读
相关 解密prompt系列5. APE+SELF=自动化指令集构建代码实现
上一章我们介绍了不同的指令微调方案, 这一章我们介绍如何降低指令数据集的人工标注成本!这样每个人都可以构建自己的专属指令集, 哈哈当然我也在造数据集进行时~ 介绍两种方案SE
相关 解密Prompt系列4. 升级Instruction Tuning:Flan/T0/InstructGPT/TKInstruct
这一章我们聊聊指令微调,指令微调和前3章介绍的prompt有什么关系呢?哈哈只要你细品,你就会发现大家对prompt和instruction的定义存在些出入,部分认为instr
相关 解密Prompt系列3. 冻结LM微调Prompt: Prefix-Tuning & Prompt-Tuning & P-Tuning
这一章我们介绍在下游任务微调中固定LM参数,只微调Prompt的相关模型。这类模型的优势很直观就是微调的参数量小,能大幅降低LLM的微调参数量,是轻量级的微调替代品。和前两章微
相关 解密Prompt系列1. Tunning-Free Prompt:GPT2 & GPT3 & LAMA & AutoPrompt
借着ChatGPT的东风,我们来梳理下prompt范式的相关模型。本系列会以A Systematic Survey of Prompting Methods in Natura
相关 解密Prompt系列2. 冻结Prompt微调LM: T5 & PET & LM-BFF
这一章我们介绍固定prompt微调LM的相关模型,他们的特点都是针对不同的下游任务设计不同的prompt模板,在微调过程中固定模板对预训练模型进行微调。以下按时间顺序介绍,支持
相关 LLM-GPT系列:GPT-1(201806)【1.17亿、5GB】、GPT-2(201902)【15亿、40GB】、GPT-3(202005)【1750亿、45TB】【OpenAI】
![2c9de8bd56ad48ef86022d2eb26a0aea.png][] ![9052b60dab13450bb679089a2a4dd7e4.png][] GP
相关 GPT系列:Codex【使用GPT-3完成代码自动生成任务】
[OpenAI Codex][] Evaluating Large Language Models Trained on Code 1. 根据函数名和注释自动补全代码
相关 NLP-预训练模型-GPT系列:GPT-1(2018-06)、GPT-2(2019-02)、GPT-3(2020-05)、InstuctGPT(2022-01)、chatGPT(2022-11)
![2c9de8bd56ad48ef86022d2eb26a0aea.png][] ![9052b60dab13450bb679089a2a4dd7e4.png][] GP
相关 c语言1+2+3+4+5_C程序来计算系列1+(1 + 2)+(1 + 2 + 3)+(1 + 2 + 3 + 4)+ ... +(1 + 2 + 3 + ... + n)...
c语言1+2+3+4+5 The series is: 1+(1+2) +(1+2+3) +(1+2+3+4) + ... +(1+2+3+...+n), we have t
相关 【Java加解密系列】- SM2加解密
上一篇博客介绍了SM2算法生成密钥的过程,详见-[SM2生成密钥][SM2]。这篇博客接着介绍SM2算法如何用上篇博客生成的密钥进行加解密操作。 因为密钥都是byte数组,在
还没有评论,来说两句吧...