发表评论取消回复
相关阅读
相关 快速了解什么是大模型
大模型(Large Model)是AI人工智能领域中的一种重要模型,通常指的是参数量非常大、数据量也非常大的深度学习模型。大模型通常由数百万到数十亿的参数组成,需要大量的...
相关 国内下载大模型:替代 Huggingface 的两个方案
国内用户往往难以直接访问Huggingface.co来获取所需资源。国内有几个优秀平台提供的替代方案。
相关 快速下载Huggingface的大语言模型
最近在研究大语言模型,找到了一个不用科学上网就能下载Huggingface的模型的方法。当然,科学上网也支持。1、总体来说还是方便的,不科学上网也能下载。2、其它的模型复...
相关 HuggingFace- Datasets里的概念
Arrow Arrow让大量的数据可以被快速的处理和移动。它是一种在内存中列式存储的格式。他提供了几个明显的优势: Arrow的标准格式允许零拷贝读取,这实际上消
相关 大语言模型融合SOTA
目录 引言 大语言模型融合的方法 模型层面融合 预训练层面融合 最新SOTA结果 文本分类 机器翻译 问答系统 结论 -------------------
相关 大语言模型训练技巧
10、Flash Attention 标准Attention的中间结果需要通过高带宽内存(HBM)进行存取,空间复杂度为O(N2)。随着输入序列长度的增加,标准Attenti
相关 ChatGPT以及LLM(大语言模型)的思考
一、ChatGPT简介 ChatGPT本质是一个对话模型,它可以回答日常问题、挑战不正确的前提,甚至会拒绝不适当的请求,在去除偏见和安全性上不同于以往的语言模型。Chat
相关 大语言模型调研汇总
自从ChatGPT出现之后,各种大语言模型是彻底被解封了,每天见到的模型都能不重样,几乎分不清这些模型是哪个机构发布的、有什么功能特点、以及这些模型的关系。比如 GPT-3.0
相关 快速下载模型的一些链接记录
1.pytorch 的预训练模型 参考:[https://www.flyai.com/md/modelf2d03f8ee2f735d0f17c214e][https_ww
相关 NLP(四十一)使用HuggingFace翻译模型的一次尝试
本文将如何如何使用HuggingFace中的翻译模型。 HuggingFace是NLP领域中响当当的团体,它在预训练模型方面作出了很多接触的工作,并开源了许多预训练
还没有评论,来说两句吧...