发表评论取消回复
相关阅读
相关 NLP-预训练模型-中文-封神榜系列:燃灯/Randeng-T5-784M(中文版的mT5-large)【处理各种从源文本转换到目标文本类型的任务,例如机器翻译,文本摘要等】
简介 Brief Introduction 善于处理NLT任务,中文版的mT5-large。 Good at handling NLT tasks, Chinese m
相关 NLP-预训练模型-中文:封神榜系列【姜子牙(通用大模型)、太乙(多模态)、二郎神(语言理解)、闻仲(语言生成)、燃灯(语言转换)、余元(领域)、...】
封神榜模型系列简介 <table> <thead> <tr> <th>系列名称</th> <th>需求</th> <th>适用任务</t
相关 使用BERT预训练模型+微调进行文本分类
本文记录使用BERT预训练模型,修改最顶层softmax层,微调几个epoch,进行文本分类任务。 BERT源码 首先BERT源码来自谷歌官方tensorflow版:[
相关 NLP-文本处理:中文文本挖掘预处理流程
-------------------- -------------------- -------------------- 参考资料: [中文文本挖掘预处理流程总结
相关 腾讯的NLP文本分类训练记录
github地址: [NeuralNLP-NeuralClassifier][] 由于自己显卡内存太小,运行时报错: RuntimeError: CUDA out
相关 利用bert预训练模型进行文本分类
摘要 从git下载bert程序,下载bert预训练模型,自行标注数据,实现数据集加载程序,bert进行分类模型训练,评估。 bert和模型地址:[https://gi
相关 nlp中文文本摘要提取,快速提取文本主要意思
文本摘要提取 之前写过一版 文本摘要提取,但那版并不完美。有所缺陷(但也获得几十次收藏)。 [中文文本摘要提取 (文本摘要提取 有代码)基于python][_ _py
相关 【NLP-新闻文本分类】3 Bert模型的对抗训练
目录 1 引言 2 步骤 2.1 数据集预处理 2.2 用预处理后的数据集训练Bert的语料库 2.3 加载语料库和字
相关 Pytorch——GPT-2 预训练模型及文本生成
介绍 在本次将学习另一个有着优秀表现的预训练模型:GPT-2 模型,以及使用它进行文本生成任务实践。 知识点 GPT-2 的核心思想 GPT-2
相关 NLP系列 4. 文本表示
词袋模型——离散、高维、稀疏 基本介绍 词袋模型是一种很基础的文本表示模型。 通俗的理解就是把一段文本看做一个袋子,并且忽略词出现的顺序。具体而言,就是将文本以
还没有评论,来说两句吧...