您现在的位置是:首页 > 个人中心 > 江岚的日志

上传资源列表

  • 预训练与微调技术概述

    大小:14K 更新时间:2026-04-14 下载积分:2分

    一、预训练技术预训练是指在大规模通用语料上对模型进行初始训练的过程。通过在海量文本数据(如书籍、网页、文章等)上学习语言的统计规律、语法结构和语义表示,模型能够获得通用的语言理解能力。预训练阶段通常采...

    标签:预训练
  • PaLM大模型技术详解

    大小:13K 更新时间:2026-04-14 下载积分:2分

    一、PaLM大模型概述PaLM(Pathways Language Model)是由Google公司开发的大规模语言模型,它是Google在自然语言处理领域的重要研究成果。PaLM大模型基于Transformer架构,通过对海量文本数据的训练,具备了强大的自...

    标签:大模型
  • LLaMA系列大模型综述

    大小:15K 更新时间:2026-04-14 下载积分:2分

    一、LLaMA系列模型概述LLaMA(Large Language Model Meta AI)是由Meta AI(原Facebook AI)开发的一系列开源大型语言模型,旨在推动自然语言处理(NLP)领域的研究与应用。该系列模型自2023年2月首次发布以来,已迭...

    标签:大模型
  • BERT大模型详解

    大小:17K 更新时间:2026-04-14 下载积分:2分

    一、BERT模型概述BERT(Bidirectional Encoder Representations from Transformers)是由Google于2018年提出的预训练语言模型,其核心创新在于采用双向Transformer编码器捕捉上下文信息。与传统单向语言模型(如GPT...

    标签:大模型
  • GPT系列大模型概述

    大小:13K 更新时间:2026-04-14 下载积分:2分

    一、GPT系列模型简介GPT(Generative Pre-trained Transformer)系列大模型是由OpenAI公司开发的基于Transformer架构的生成式语言模型。该系列以其强大的自然语言理解与生成能力,在自然语言处理(NLP)领域产生了深...

    标签:大模型
Displaying 571-575 of 1000 results.