大模型时代加速到来,可及性提高赋能金融数据应用创新Transformer 开启大模型时代,超大样本参数带来大模型涌现能力提升Transformer 是大语言模型的基础。2017 年 6 月,Google 首次提出了基于自我注意力机制(Self-Attention)来提高训练速度的 Transformer 模型。从 Transformer 的结构来看,Transformer 由Encoder 编码器和 Decoder 解码器两个部分组成。基于 Transformer模型,OpenAI 的 GPT 模型从 GPT-1 不断演进至当前的多模态大模型 GPT-4,Google 的 BERT 模型成为 Meta 和百度各类大模型的基础,但二者在技术路线上走向了两条不同的道路。具体而言,BERT 仅运用了 Transformer 的 Encoder 框架,而 Encoder 中采用了 Self-Attention 机制,即训练时每一个词需要对整个输入序列的上下文进行相关性分析,从模式上来看更接近于一个完形填空模型;而 GPT 运用了 Transformer 的