您现在的位置是:首页 > 个人中心 > 江岚的日志

上传资源列表

  • Encoder-Decoder架构详解

    大小:15K 更新时间:2026-04-15 下载积分:2分

    一、基本概念Encoder-Decoder架构是一种广泛应用于序列转换任务的深度学习模型框架,由编码器(Encoder)和解码器(Decoder)两个核心模块组成。其核心思想是将输入序列通过编码器转换为固定长度的上下文向量(Conte...

    标签:架构
  • 跨语言对比学习研究综述

    大小:15K 更新时间:2026-04-15 下载积分:2分

    一、跨语言对比学习的概念与意义跨语言对比学习(Cross-lingual Contrastive Learning)是自然语言处理领域的重要研究方向,旨在通过构建跨语言语义关联,使模型能够在不同语言间实现知识迁移与共享。该技术通过对比...

    标签:跨语言
  • Wav2Vec 2.0技术概述

    大小:15K 更新时间:2026-04-15 下载积分:2分

    一、核心定位与创新背景Wav2Vec 2.0是由Facebook AI Research(FAIR)于2020年提出的端到端语音识别模型,发表于NeurIPS 2020会议。该模型突破了传统语音识别系统对人工标注数据的强依赖,通过自监督学习(Self-Supe...

    标签:wav2vec
  • FLAVA多模态模型架构与预训练

    大小:16K 更新时间:2026-04-15 下载积分:2分

    ViLBERT(Vision-and-Language BERT)是一种融合视觉和语言信息的预训练模型,由Google Research团队于2019年提出。该模型旨在通过双向Transformer架构实现跨模态信息的深度交互,为视觉-语言任务(如视觉问答、图像...

    标签:预训练
  • ViLBERT模型架构与预训练机制

    大小:15K 更新时间:2026-04-15 下载积分:2分

    ViLBERT(Vision-and-Language BERT)是一种融合视觉和语言信息的预训练模型,由Google Research团队于2019年提出。该模型旨在通过双向Transformer架构实现跨模态信息的深度交互,为视觉-语言任务(如视觉问答、图像...

    标签:预训练
Displaying 516-520 of 1000 results.