发表评论取消回复
相关阅读
相关 LangChain入门(一)访问LLM模型
[GitHub - liaokongVFX/LangChain-Chinese-Getting-Started-Guide: LangChain 的中文入门教程LangChai
相关 LLM-预训练:深入理解 Megatron-LM(4)并行设置
> 最近在基于Megatron-LM的代码来训练大语言模型,本人觉得Megatron的代码很具有学习意义,于是大量参考了网上很多对Megatron代码的解读文章和NVIDA M
相关 从LangChain+LLM的本地知识库问答到LLM与知识图谱、数据库的结合
前言 过去半年,随着ChatGPT的火爆,直接带火了整个LLM这个方向,然LLM毕竟更多是基于过去的经验数据预训练而来,没法获取最新的知识,以及各企业私有的知识
相关 LLM:SentencePiece(词表扩充必备工具)
背景 随着ChatGPT迅速出圈,最近几个月开源的大模型也是遍地开花。目前,开源的大语言模型主要有三大类:ChatGLM衍生的大模型(wenda、[ChatSQL][]等
相关 【LLM系列之Tokenizer】如何科学地训练一个LLM分词器
1 背景与基础 1.1 为什么需要分词 对于人而言,在我们学会阅读之前,仍然可以理解语言。比如当你开始上学时,即使你不知道名词和动词之间的区别,但是你已经可以
相关 LLM:prompt指令数据制作
[https://github.com/ymcui/Chinese-LLaMA-Alpaca][https_github.com_ymcui_Chinese-LLaMA-Alp
相关 LLM-2023:Falcon模型【阿联酋】
Falcon 重要信息速读 1. 本模型是阿联酋Technology innovation institute 推出的,最大的是40B,在AWS上384个GPU上,使用
相关 LLM-微调-方案(0):prompt tuning
先说结论:已经有研究显示Prompt可以有效地应用到CV领域 \[[VPT][], CLIP, CoOP\],但是应用仍然非常有限,有很大发挥空间。其一,Prompt的本质是调
相关 LLM-2023:Auto-GPT
从本质上来看,Auto-GPT 是一种自动文本生成技术,它使用深度学习算法来生成类似人类的文本。它基于生成式预训练转换器 ( GPT ) 架构,是一种旨在生成自然语言文本的神经
相关 LLM-202304:MiniGPT-4
项目地址:https://minigpt-4.github.io/ GitHub地址:https://github.com/Vision-CAIR/MiniGPT-4 论文
还没有评论,来说两句吧...