发表评论取消回复
相关阅读
相关 【机器学习】对比学习(contrastive learning)
SSL 中使用的最古老和最受欢迎的技术之一是对比学习,它使用“正”和“负”样本来指导深度学习模型。此后,对比学习得到了进一步发展,现在被用于完全监督和半监督的环境中,并提...
相关 图文多模态预训练任务整理
引言 近些年来,随着Transformer在CV与NLP领域的广泛应用,研究者们对“多模态”的研究也越来越重视。所谓多模态,就是利用多种模态如图像、文本、音频等信息,力求
相关 AI-多模态-文本->图像-2022:Midjourney
Midjourney 会发布新的模型版本,以提高效率,相干性和质量。最新的模型是默认模型,但是可以使用–version或-v参数或使用 /settings命令和选择模型版本使用
相关 AI-多模态-2022:BLIP【统一理解和生成的多模态】
论文:[https://arxiv.org/abs/2201.12086][https_arxiv.org_abs_2201.12086] 代码:[GitHub - sale
相关 AI-多模态-2021:FILIP【一种基于交互的细粒度图文预训练模型】
前言 FILIP(Fine-grained Interactive Language-Image Pretrain)是一种基于交互的细粒度图文预训练模型,用于解决图文双塔
相关 AI-多模态-2022:TCL【triple contrastive learning】【三重对比学习的视觉-语言预训练模型】
论文:[https://arxiv.org/pdf/2202.10401.pdf][https_arxiv.org_pdf_2202.10401.pdf] 代码:[https
相关 多模态:CLIP 模型【连接语言与视觉】
CLIP(Contrastive Language-Image Pre-Training,以下简称 CLIP) 模型是 OpenAI 在 2021 年初发布的用于匹配图像和文本
相关 AI-多模态-2021:CLIP模型【OpenAI】【连接语言与视觉】【对比学习】
[GitHub - openai/CLIP: Contrastive Language-Image Pretraining][GitHub - openai_CLIP_ Con
相关 (四):M6:中文多模态预训练模型
文献阅读(四):M6: A Chinese Multimodal Pretrainer ABSTRACT KEYWORDS 1 INTRODUCTION
相关 (Model-Contrastive Federated Learning)模型对比联邦学习
摘要 联邦学习使多方能够在不交流本地数据的情况下协作训练机器学习模型。 联邦学习的一个关键挑战是处理各方本地数据分布的异质性。 尽管已经提出了许多研究来应对这一挑战,但我
还没有评论,来说两句吧...