DNAVec:基因组DNA序列的预训练词向量表示
DNAVec: Pre-Trained Word Vector Representation of Genomic DNA Sequences
DOI: 10.12677/HJBM.2021.113016, PDF, HTML, XML, 下载: 521  浏览: 2,636 
作者: 郎 梅, 郭志云:西南交通大学生命科学与工程学院,四川 成都
关键词: BERTDNA序列预训练自然语言处理BERT DNA Sequence Pre-Training Nature Language Processing
摘要: 破译DNA序列所代表的信息是基因组研究的基本问题之一。基因调控编码由于存在多义性关系而变得非常复杂,而以往的生物信息学方法往往无法捕捉到DNA序列的隐含信息,尤其是在数据匮乏的情况下。因而从序列信息中预测DNA序列的结构和功能是计算生物学的一个重要挑战。为了应对这一挑战,我们引入了一种新的方法,通过使用自然语言处理领域的语言模型BERT将DNA序列表示为连续词向量。通过对DNA序列进行建模,BERT有效地从未标记的大数据中捕捉到了DNA序列中的序列特性。我们将DNA序列的这种新的嵌入表示称为DNAVec (DNA-to-Vector)。此外,我们可以从模型中提取出预训练的词向量用于表示DNA序列,用于其他序列级别的分类任务。
Abstract: Deciphering the information represented by DNA sequences is one of the fundamental problems of genomic research. Gene regulatory coding is complicated by the presence of polysense relationships, and previous bioinformatics methods often fail to capture the implicit information of DNA sequenc-es, especially when data are scarce. Predicting the structure and function of DNA sequences from sequence information is thus an important challenge in computational biology. To address this challenge, we introduce a new approach to represent DNA sequences as continuous word vectors by using the language model BERT from the field of natural language processing. By modelling DNA sequences, BERT effectively captures the sequence properties in DNA sequences from unlabelled big data. We refer to this new embedding representation of DNA sequences as DNAVec (DNA-to-Vector). In addition, we can extract pre-trained word vectors from the model for repre-senting DNA sequences for other sequence-level classification tasks.
文章引用:郎梅, 郭志云. DNAVec:基因组DNA序列的预训练词向量表示[J]. 生物医学, 2021, 11(3): 121-128. https://doi.org/10.12677/HJBM.2021.113016

1. 引言

最近,研究人员发现人类语言与生物语言之间存在一些相似之处。受此启发,开发生物语言处理模型可以为生物序列的研究提供一个全新的理论视角和可行的方法,然而,人们要发现与人类语言不同的生物模式的真正含义是相当困难的。研究人员开发了一个叫的BioVec [1] 模型。该模型提供了一种全新的蛋白质序列的表示和特征提取方法。Wang等人开发了一种名为生物向量(Bio2Vec)的生物语言处理模型 [2]。Bio2Vec提供了一个框架,允许研究人员考虑生物序列的上下文信息和隐含语义信息。Chen等人 [2] 利用自然语言处理(NLP)技术获得了各蛋白质序列的全局向量表示。Heinzinger等 [3] 利用深度双向语言模型ELMo [4] 从未标记的大数据中捕捉蛋白质序列的生物物理特性。MENEGAUX等人 [5] 开发了一称之为fastDNA的模型,此模型通过学习DNA序列所包含的k-mer的连续低维表示,将DNA序列嵌入到一个向量空间中。他们通过修改fastText开源库 [6] [7] 实现了这个模型,其中涉及到一个类似的自然语言的k-mer嵌入模型。Patrick Ng开发了一个名为DNAVec [8] 的方法,该方法基于NLP的一个开创性的模型Word2Vec [9] 来提取DNA序列的特征并给出适当的表示,可以更好地理解DNA序列的语义。以上实验结果表明,利用生物序列的语义信息对解决基于序列的问题有很大帮助。此外,这些工作将在各种生物分类问题上也有潜在的应用。

上面研究的表明NLP在生物语言处理领域有很大的潜力,但是自然语言处理社区技术也不断的更新和发展,以前技术的不足也不能满足当下发展的需求。比如:之前的模型Word2Vec [9]、GloVe [10] 专注于学习与语境无关的词语表征,最近的研究ELMo [4] 使用了一个双向的语言模型学习上下文表示,集中在学习依赖语境的单词表征上,ELMo使用两个独立的长短期记忆网络(LSTM) [11] 的组合,并不是真正意义上的上下文相关表示。GloVe [10] 使用机器翻译将上下文信息嵌入到单词中。这些自然语言处理技术虽然得到了广泛的应用,但它们对序列的表示都不是真正意义上的上下文相关。BERT [12] 是广泛用于NLP领域的基于上下文相关的词表示模型,同时在大多数的NLP应用中取得了最先进的性能。在大量自然语言处理领域的实践表明BERT具有很强的表示能力,而表示学习 [13] 对于深度学习模型是非常重要的。基于BERT这种对序列的表示能力,因此在这篇文章中我们基于全基因组DNA序列从头训练BERT模型,从而得到一个DNA序列的表示模型。模型的可视化结果表明,模型能够捕捉到DNA序列中特殊的语义模式。

2. 预训练模型

2.1. 数据集

我们的预训练模型是用hg38人类基因组组装chr1至chr22进行训练的。具体来说,它们是从UCSC (http://hgdownload.cse.ucsc.edu/downloads.html#human)下载的。此外,我们排除了X和Y染色体,以及线粒体和未定位的序列。

2.2. BERT:基于Transformer的双向语言模型

BERT是一个上下文相关的的词表示模型。该模型是基于遮蔽语言模型和预训练的使用双向Tranformers [14]。由于语言模型的本质是未来的词不能被看见,以前的语言模型仅限于两个单向语言模型的组合(即从左到右和从右到左)。BERT使用了一个遮蔽语言模型,可以预测序列中随机遮蔽的词,因此可以用于学习上下文相关表示。同时,它在大多数NLP任务上获得了最先进的性能,同时只需要最小的特定任务架构修改就能用于其他任务。根据BERT的作者,在自然语言模型中加入双向表征的信息,而不是单向表征的信息,对于表征自然语言中的词是至关重要的。我们假设这种双向表示对于DNA序列的表示也是至关重要的。因为复杂的DNA序列表示也不是简单的从左到右或者从右到左的关系,基因调控元件之间也是上下文相关的。

2.3. 分词

我们没有将每个碱基视为一个单一的标记,而是用k-mer表示法将一个DNA序列标记化,这种方法已被广泛用于分析DNA序列。k-mer表示法通过将每个脱氧核苷酸碱基与它的后续碱基连接起来,为其整合了更丰富的上下文信息。它们的连接称为k-mer。本文中我们使用可变长k-mer ( 3 k 8 )来组装DNA序列。具体方法如下:给定一个DNA序列S,首先通过在S上滑动长度为k的窗口将其转换为重叠的固定长度的k-mer,其中k值的选择采用离散随机采样。例如,GATCCCAC的变长k-mer (k = (4, 5, 6)可以是{GATC, ATCCC,TCCCAC}。分词示例如图1所示。在我们的实验中,模型的词汇表包括k-mer的所有排列组合以及5个特殊标记。[CLS]代表分类标记;[PAD]代表填充标记;[UNK]代表未知标记;[SEP]代表序列上下句分离标记;[MASK]代表屏蔽标记。因此模型中的词汇共有87365个。

Figure 1. Variable length k-mer assembled

图1. 可变长k-mer从头组装

2.4. 预训练

根据之前的模型预训练工作 [12] [15],本实验的总体结构如图2所示,对于一段DNA序列(序列的最大输入长度为512),我们将其标记为k-mers序列,并在其开头添加一个代表整个序列的特殊的标记[CLS]以及在结尾添加一个表示序列结束的特殊的标记[SEP]。在训练过程中,我们遮蔽序列中的某些k-mers,遮蔽的比例为占一段输入序列的15% (防止过拟合以及减少模型的计算量)。在本研究中我们使用BERT (L = 12, H = 512, A = 12)相同的模型结构进行训练,其中L代表代表模型的总的层数,即有12个Transformer结构单元,H代表隐藏层大小,A代表自注意力头部,共有12个注意力头部。我们对预训练模型进行了共80 k步的训练,批处理量为8。学习率为4e−4。此外,我们在配备2个NVIDIA Tesla K80 (240 k) GPU的机器上进行训练。

Figure 2. Pre-training model structure

图2. 预训练模型结构

2.5. 词频–逆文档频率

tf-idf (term frequency-inverse document frequency)表示词频–逆文档频率,tf (term frequency)是词频,idf (inverse document frequency)表示逆文档频率,tf-idf权重是信息检索和文本挖掘中常用的加权技术。该权重是一种统计度量方法,用于评估一个单词对集合或语料库中的文档的重要性。重要性随单词在文档中出现的次数成比例增加,但会被单词在包含该单词的语料库中出现的频率抵消,这有助于根据某些单词在一般情况下出现更频繁的事实进行调整。tf-idf计算方法为:

我们定义 f ( t , d ) 为单词t在文档d中的出现频率,然后词频 f ( t , d ) 如公式2-1所示:

f ( t , d ) = f t , d t d f t , d (2-1)

逆文档频率idf定义如公式2-2所示:

i d f ( t ) = log 1 + n 1 + d f ( t ) + 1 (2-2)

其中n 在文档集中文档的总数, d f ( t ) 是包含t的文档的数量, tf-idf 定义如公式2-3所示:

t f - i d f ( t , d ) = t f ( t , d ) × i d f ( t ) (2-3)

然后将得到的tf-idf向量用欧几里得范数进行归一化处理,如公式2-4所示:

v n o r m = v v 2 = v v 1 2 + v 2 2 + + v n 2 (2-4)

3. 实验结果

3.1. 模型注意力机制分析

BERT以两个关键思想为基础:Transformer [14] 架构和无监督的预训练。这两个思想是BERT在很多应用上取的很好的原因。Transformer是一个序列模型,它放弃了循环神经网络(RNN) [16] 的循环结构,而采用了完全基于注意力的方法 [17]。为了探索预训练到底学到了什么。我们使用可视化工具bertviz [18] 对模型进行可视化,通过分析模型的注意力机制我们发现一些非常独特的和令人惊讶的直观的注意力模式。下面我们发现了4种比较重要的注意力机制模式,并为每一个特定的layer/head进行分析。

模式一:注意力大部分放在3-mer上。在这个模式中,在特定位置的大部分注意力指向序列中的3-mer标记。我们可以在layer 0/head 3中看到这样的一个例子。(选中的头部由顶部颜色条中突出显示的正方形表示),图3(a)显示了对一个选定标记mer“gatccac”的注意力模式。在本例中,几乎所有的注意力都指向序列中的下一个令牌“cct”、“aaa”、“cct”。一个词注意放在3-mer,可能是因为3-mer是密码子的,在一个序列中比较重要的序列单元的原因。

Figure 3. Visualisation of attentional mechanisms in pre-trained models

图3. 预训练模型中的注意力机制可视化

模式二:在这个模式中,序列是一段管家基因序列。注意力放在了除3-mer之外的所有标记。例如,在图3(b)中layer3,head3中,“gcgc”注意放在任何不包含“gat”、“aaa”、“cct”的k-mer。一项研究用k-mer频率作为特征来预测CpG岛,结果表明人类的CpG岛序列具有独特的k-mer模式,并不是随机序列,通过他们的分析,4-mer的表现最好 [19]。表明CpG岛具有明显的4-mer分布。正如我们所知道的,CpG岛富集于管家基因,管家基因因为要维持在所有细胞中稳定表达,而3-mer是比较常见的转录密码子,在基因组属于转录比较活跃的部分。因此,模式二可能学习到序列中隐含的调控语义。

模式三:注意力放在了语料库中tf-idf值比较高的k-mer上。我们计算了全基因组DNA序列语料库中的k-mer的tf-idf值。其中tf-idf值前100的k-mer的词云图如图4所示。根据图3(c)可知,注意力机制放在了tf-idf值比较高的mers上。模式三表明该模型能捕捉到语料库中的关键k-mer。

模式四:在这一模式中。注意放在了相同或相关的词,包括源词本身。在图3(d)的例子中,“gagtgagt”的注意力主要集中在它本身和“gtgctg”、“tgctgga”上。这种模式不像其他模式那样明显,注意力分散在许多不同的单词上,但是其注意力类似于自然语言领域把注意力放在近义词上,表明模型能够捕获相似的语义。以上4种模式描述了预训练模型中比较常见的注意模式,结果表明该模型实际上得到了一些有意义的DNA序列特性。

Figure 4. Word cloud graph of the top 100 kmer with relatively high tf-idf values

图4. 前一百个tf-idf值比较高的kmer的词云图

3.2. DNA序列的词向量表示

长DNA序列的普遍表示之一是将其分解为较短的k-mer成分,在许多应用中,短k-mer被认为是相关的,如k = 6 [2],k ≤ 7 [20],k = 8 [21]。不幸的是,将k-mer作为一个one-hot向量进行直接的编码时任何一对one-hot之间的距离都是等距的,这表示k-mer之间完全没有相关性。而且这种编码常常导致数据的空间维度很大,容易受到维数诅咒的影响。当应用最新的机器学习算法来解决生物序列分析的问题时,这尤其成问题。因此,我们提出了一种基于预训练的DNA序列表示方法。考虑到BERT用于预训练的字典不能太大,我们使用长度为3~8的k-mer。训练模型将每个k-mer嵌入一个新的n维特征空间,为不同长度的k-mer生成特征向量。具体地,预训练嵌入模型可以表示为大小为 V × N 的投影矩阵,其中V为词典大小,N为嵌入特征空间的维数,词汇表V是所有k-mer的组合和用于标记的5个特殊符号的集合。在本论文中,我们提取预训练模型的最后一层隐含层,得到一个大小为 V × 512 的嵌入矩阵。每个单词都嵌入在一个512维的空间中。我们可以使用一个名为bert-as-service的工具(https://github.com/hanxiao/bert-as-service)获取上下文单词嵌入。获得的预训练的词向量形式如图5所示。

Figure 5. Pre-trained word vector representation

图5. 预训练词向量表示形式

4. 结论

目前预训练技术广泛应用于自然语言处理(NLP)和计算机视觉(CV)领域。但是在生物信息领域还很少应用到。DAN序列作为生物语言,其本身和自然语言有一定的相似性。因此本论文试图从语言处理的角度分析生物语言。希望为DNA序列的解读提供新的发现或为生物问题的解决提供新的视角。在本研究中,通过自监督的预训练方法来得到DNA序列的上下文相关表示,这与之前的序列one-hot方法表示或者序列上下文无关表示极为不同。论文的主要贡献是发布了一个预训练模型,我们期望我们的模型也适用于其他序列分析任务,例如,从染色质可及性测序数据 [22] 和转录因子结合位点测序数据 [23] 中确定基因组调控元件。此外,由于RNA序列与DNA序列只相差一个碱基,而语法和语义基本保持一致,我们提出的方法预计也可能应用RNA序列数据 [24]。虽然在DNA上像自然语言样直接进行机器翻译是不可能的,但DNA序列的预训练模型提供了这种可能性的启示。作为一个基于DNA序列开发的预训练语言模型,它正确地捕捉到了DNA序列中隐藏的语法和语义。同时,本论文也凸显了结合不同层次的数据对DNA序列进行解读的必要性。综上所述,我们预计此预训练模型可以为基因序列分析带来先进的语言建模视角,为生物信息学界带来新的见解。

参考文献

参考文献

[1] Asgari, E. and Mofrad, M.R. (2015) Continuous Distributed Representation of Biological Sequences for Deep Proteomics and Genomics. PLoS ONE, 10, e0141287.
https://doi.org/10.1371/journal.pone.0141287
[2] Chen, Y.H., Nyeo, S.L. and Yeh, C.Y. (2005) Model for the Distributions of k-Mers in DNA Sequences. Physical Review E, Statistical, Nonlinear, and Soft Matter Physics, 72, Article ID: 011908.
https://doi.org/10.1103/PhysRevE.72.011908
[3] Heinzinger, M., et al. (2019) Modeling Aspects of the Language of Life through Transfer-Learning Protein Sequences. BMC Bioinformatics, 20, 723.
https://doi.org/10.1186/s12859-019-3220-8
[4] Peters, M.E., et al. (2018) Deep Contextualized Word Representations.
[5] Menegaux, R. and Vert, J.P. (2019) Continuous Embeddings of DNA Sequencing Reads and Application to Metagenomics. Journal of Computational Biology, 26, 509-518.
https://doi.org/10.1089/cmb.2018.0174
[6] Joulin, A., et al. (2017) FastText.zip: Compressing Text Classification Models.
[7] Joulin, A., et al. (2016) Bag of Tricks for Efficient Text Classification. Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics, Volume 2, 427-431.
https://doi.org/10.18653/v1/E17-2068
[8] Ng, P. (2017) DNAVec: Consistent Vector Representations of Variable-Length k-Mers.
[9] Mikolov, T., Sutskever, I. and Chen, K. (2013) Distributed Representations of Words and Phrases and Their Compositionality.
[10] Pennington, J., Socher, R. and Manning, C.D. (2015) GloVe: Global Vectors for Word Representation. Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), Doha, October 2014, 1532-1543.
https://doi.org/10.3115/v1/D14-1162
[11] Greff, K., Koutnık, R.K.S.J. and Schmidhuber, B.R.S.J.U. (2015) LSTM: A Search Space Odyssey.
[12] Devlin, J., et al. (2018) BERT: Pre-Training of Deep Bidirectional Transformers for Language Understanding.
[13] Bengio, Y., Courville, A. and Vincent, P. (2013) Representation Learning: A Review and New Perspectives. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35, 1798-1828.
https://doi.org/10.1109/TPAMI.2013.50
[14] Shazeer, N., et al. (2017) Attention Is All You Need.
[15] Diederich, A. (2019) Advances in Neural Information Processing Systems 18. Journal of Mathematical Psychology, 51, 339.
https://doi.org/10.1016/j.jmp.2008.09.003
[16] Schuster, M. and Paliwal, K.K. (1997) Bidirectional Recurrent Neural Networks. IEEE Transactions on Signal Processing, 45, 2673-2681.
https://doi.org/10.1109/78.650093
[17] Vaswani, A., et al. (2017) Attention Is All You Need. 31st Conference on Neural Information Processing Systems (NIPS 2017), Long Beach, 4-9 December 2017, 1-15.
[18] Vig, J. (2019) A Multiscale Visualization of Attention in the Transformer Model. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, Florence, July 2019, 37-42.
https://doi.org/10.18653/v1/P19-3007
[19] Bahmani, A., et al. (2021) Hummingbird: Efficient Performance Prediction for Executing Genomic Applications in the Cloud. Bioinformatics, btab161.
[20] Nikolaou, C. and Almirantis, Y. (2005) “Word” Preference in the Genomic Text and Genome Evolution: Different Modes of n-Tuplet Usage in Coding and Noncoding Sequences. Journal of Molecular Evolution, 61, 23-35.
https://doi.org/10.1007/s00239-004-0209-2
[21] Huimin, X. and H. Bailin, (2002) Visualization of K-Tuple Distribution in Procaryote Complete Genomes and Their Randomized Counterparts. Proceedings IEEE Computer Society Bioinformatics Conference, Stanford, 14-16 August 2002, 31-42.
[22] Buenrostro, J.D., et al. (2013) Transposition of Native Chromatin for Fast and Sensitive Epigenomic Profiling of Open Chromatin, DNA-Binding Proteins and Nucleosome Position. Nature Methods, 10, 1213-1218.
https://doi.org/10.1038/nmeth.2688
[23] Bartlett, A., et al. (2017) Mapping Genome-Wide Transcription-Factor Binding Sites Using DAP-Seq. Nature Protocols, 12, 1659-1672.
https://doi.org/10.1038/nprot.2017.055
[24] Gerstberger, S., Hafner, M. and Tuschl, T. (2014) A Census of Human RNA-Binding Proteins. Nature Reviews Genetics, 15, 829-845.
https://doi.org/10.1038/nrg3813