2. 山西大学 计算机智能与中文信息处理教育部重点实验室, 太原 030006
2. Key Laboratory of Computational Intelligence and Chinese Information Processing of Ministry of Education, Shanxi University, Taiyuan 03006, China
在人机交互的研究领域中,语音合成技术一直占有举足轻重的地位。影响语音合成质量的因素有很多,其中最关键的2个因素是自然度与可懂度。目前,可懂度已基本满足人的要求,自然度还有待提高,而准确的韵律层级划分是形成高自然度语音的关键。
在现代汉语中通常把韵律结构划分为3个等级,从低到高依次为:韵律词、韵律短语和语调短语。语调短语一般由标点符号隔开而容易被识别,韵律词往往位于语法词边界处也比较容易被识别。因此,对韵律短语的准确识别是语音合成技术中的难点。
对于韵律短语识别问题的研究,主要采用2种方法:基于规则的方法和基于统计模型的方法。基于规则的方法主要通过专家知识总结出划分规则,比如基于语法信息的方法[1]、基于助词的方法[2]、基于停顿边界处声学特性的方法[3]等,这些方法主观性强,局限性较大,因此基于统计模型的方法盛行开来。基于统计模型的方法主要通过对人工标注的语料训练建模,模型主要有最大熵模型、条件随机场模型[4]、神经网络模型[5]等,这些模型从语言特征中自主学习,系统利用建立好的模型自动进行韵律短语识别。
在基于统计模型的韵律短语识别方法中,大多只是基于词、词性、词长这些浅层文本特征来展开的,对较深层次的句法特征或语义特征没有涉及。在基于规则的韵律短语识别中,有的学者利用句法信息进行韵律结构预测[6],深入讨论了韵律词与句法结构的关系,但对韵律短语研究较少。文[5]和[7]指出,较深层次的句法信息或语义信息对韵律结构预测有更大的影响。因此,本文从句法结构和依存句法结构2方面出发,获取较深层次的文本特征,然后将这些特征与统计模型相结合对韵律短语进行识别。
1 句法依存与韵律结构 1.1 句法结构与韵律结构的关系字组成词,词构成词语,词语连成句子,而词语构造句子的过程需要句法结构。在韵律结构中,语法词组成韵律词,韵律词组成韵律短语,韵律短语又构成语调短语[8]。由此可以看出,句法结构与韵律结构之间存在一定联系,二者都具有其内在的层级结构。以“目前应主要提高社会生产力”这句话为例,对其进行句法结构与韵律结构分析。
原始句子:目前应主要提高社会生产力
韵律层级划分:目前||应|主要提高||社会生产力|||
句法结构与韵律结构如图 1和2所示,对比这2个图可以看出:句法结构没有严格的层级结构,在其内部允许出现嵌套,比如在“主要提高社会生产力”这个动词短语中嵌套了动词短语“主要提高”,但韵律结构中不存在这种情况,它的层级划分十分严格,韵律短语一定要由韵律词组成,而不能再包含韵律短语。但它们之间依然存在着某种程度的相关性,调查结果显示:
![]() |
图 1 韵律结构 |
![]() |
图 2 句法结构 |
1) 在较高层级上,大多数的韵律边界都是位于句法结构边界处的。比如在图 2中,“目前”这个名词短语在句法结构中处于第一级别,属于较高级,在韵律结构中它同属于韵律结构边界。
2) 在许多联合偏正结构中韵律短语与句法结构保持了较高的一致性。图 1中“主要提高||社会生产力”这句话有2个韵律短语,与句法结构中的“VP”和“NP”2个短语结构保持了一致性。所以根据这些特点,本文提出了把句法结构应用于韵律短语边界的识别的方法。
1.2 句法结构与韵律结构统计分析句法树的层级是指将句法分析的结果转换为句法树后各节点的层次,根节点为第一层,根的子层为第二层,它反映了语法词之间连接的紧密程度。紧密度是衡量韵律结构与句法结构之间关系的一个重要特征[9]。因此,本文提出用句法层级差这一概念来刻画相邻语法词之间连接的紧密程度,这里的层级差指的是当前语法词所在层到下一语法词分支层的距离,距离越大,说明两词之间紧密程度越低,出现韵律短语边界的可能性越高。
句法结构层级差获取方法:首先利用先根遍历的方法,将句法分析器得到的标注了句法信息的语句转换为一棵二叉树,二叉树的叶子节点为语法词。转换时,顺序分析句法分析后的结果,若遇到右括号,递归终止;若遇到左括号,则用左括号后的标注建立叶子节点,然后先根建立左子树,再建立右子树。二叉树的叶子节点包含语法树的所有语法词,内部节点保存语法词所处层的层级编号。
将句法结构转换为二叉树后,采用中根遍历的方法,按照以下规则给叶子节点上的每一个语法词指定紧密度:1)若叶子节点只有1个语法词,那么该语法词的紧密度为当前节点的层级编号;2)若叶子节点中有n个语法词,n≥2,那么第n个语法词的紧密度为该节点编号与分支节点中保存的编号的差;3)若叶子节点为中根遍历的最后一个节点,那么叶子节点中的最后一个语法词的紧密度指定为该节点所处层级编号(语句的最后一个语法词边界必然为韵律短语边界)。
以上述句子为例,将句法结构转换成二叉树如图 3所示。根据上文提出的句法层级差获取算法可以得到句子中相邻语法词之间的紧密度。例如:在图 3中,语法词“目前”与它的相邻语法词“应”,它们的分支层为第二层,因此它们之间的句法层级差是“目前”的层级编号4与分支层的层级编号2的差值为2,也就是说,“目前”与“应”的紧密度为2。以此类推,“应”与“主要”之间的紧密度为1,“主要”与“提高”之间的紧密度为1,“提高”与“社会”之间的紧密度为2,“社会”与“生产力”的紧密度为1,“生产力”所处最后一层,因此它的紧密度为该节点所处层级6。
![]() |
图 3 句法结构转化后的二叉树 |
本文采用从富士通公司人工标注语料集中抽取的2 500个句子作为实验语料。该语料已完成分词、词性及韵律结构标注,平均每句语料含33.86个语法词,10.34个韵律短语。然后利用Berkeley Parser句法分析器对这一语料进行句法结构标注,并对标注后的结果进行句法层级差计算,统计分析了不同层级差与韵律短语之间相互关系,如表 1所示。
句法层级差 | 非韵律短语 | 韵律短语 | 占比/% |
1 | 28 230 | 2 848 | 9 |
2 | 23 666 | 3 423 | 12 |
3 | 7 070 | 4 659 | 40 |
4 | 2 357 | 2 660 | 53 |
5 | 1 068 | 2 483 | 70 |
6 | 464 | 3 010 | 87 |
7 | 165 | 2 005 | 92 |
8 | 43 | 836 | 95 |
其他 | 15 | 642 | 97 |
从表 1中可以看出:1)当句法层级差大于3时,该边界处的韵律短语边界占总边界40%,超出了总语料26%。2)各层级差的韵律短语所占比值成总体上升趋势,当差值大于6时,韵律短语占总边界数达到了90%以上。
综上所述可以看出,句法结构层级差与韵律结构密切相关,所处层级差值越大,是韵律短语的可能性越大。
1.3 依存句法结构与韵律结构的关系依存句法结构是对句子中词与词之间的修饰(依存)关系的反映[10]。依存关系描述的是中心词与语法词之间具体的句法关系,同样以上文句子为例,对其进行依存结构与韵律结构分析,其依存句法结构如图 4所示。
![]() |
图 4 依存句法结构 |
在依存结构图中,2个含依存关系的语法词之间用弧来连接,词间的距离称之弧长[11]。通过对比韵律结构图 1与依存结构图 4可以看出:
1) 在依存关系中,每个语法词只能依存于一个词,比如“应”与“提高”,虽然“提高”被很多词依存,但“应”只依存于“提高”。因此,在2个依存弧之间不可能出现交叉,这一点与韵律结构层级特点相同,在韵律结构中,韵律层级不存在嵌套关系。
2) 韵律结构与停顿密切相关,说明在依存弧较长的句子中间最有可能出现停顿。根据这些特点,本文提出了将相关依存特征应用于韵律短语边界的识别的方法。
1.4 依存特征与韵律结构统计分析本文依存特征获取主要是通过LTP依存句法分析器对上述语料进行依存句法结构标注,根据所得到的依存分析结果,构建包含内弧跨度、连接点、依存弧类型等反映依存关系特征的文本语料。LTP分析器的分析结果如表 2所示。
索引 | 词 | 连接点 | 依存类型 | 内弧跨度 |
1 | 目前 | 4 | ADV | 3 |
2 | 应 | 4 | ADV | 2 |
3 | 主要 | 4 | ADV | 1 |
4 | 提高 | 0 | HED | 4 |
5 | 社会 | 6 | ATT | 1 |
6 | 生产力 | 4 | VOB | 2 |
表 3为各依存类型的韵律分布情况,可以看出:1)依存弧类型共14种,其中ATT、VOB、HED、ADV这4种依存弧类型数量较多,DBL、LOB、IOB、WP较少。2)当依存弧类型为VOB和WP时,该词所处边界是韵律边界的可能性较大,分别为66%和75%。3)当依存弧类型为ATT、ADV和LAD时,该词所处边界是韵律短语边界的可能性较小,分别为10%、7%和2%。
依存类型 | 非韵律语 | 韵律短语 | 总数 | 占比/% |
VOB | 3 546 | 6 767 | 10 313 | 66 |
HED | 7 817 | 4 222 | 12 039 | 35 |
SBV | 4 287 | 2 650 | 6 937 | 38 |
ATT | 22 563 | 2 439 | 25 001 | 10 |
POB | 1 701 | 1 727 | 3 428 | 50 |
COO | 2 234 | 1 523 | 3 757 | 41 |
RAD | 6 564 | 1 512 | 8 076 | 19 |
ADV | 11 354 | 891 | 12 245 | 7 |
CMP | 1 326 | 590 | 1 916 | 31 |
DBL | 296 | 142 | 438 | 32 |
FOB | 174 | 71 | 245 | 29 |
LAD | 1 195 | 23 | 1 218 | 2 |
IOB | 21 | 6 | 27 | 22 |
WP | 1 | 3 | 4 | 75 |
因此,语法词边界是否为韵律短语边界可以通过该语法词与其依存词之间的依存类型来区分。
表 4为各连接点的韵律分布情况,可以看出:1)在韵律短语边界处,语法词的连接点的位置大多数小于7,其中当连接点所处位置为0、1时,该词所处边界是韵律短语边界的可能性较大,所占比值分别为40%、56%。2)当连接点大于8时,该词所处边界为韵律短语边界的可能性小于20%。
连接点 | 非韵律短语 | 韵律短语 | 总数 | 占比/% |
0 | 7 817 | 5 222 | 13 039 | 40 |
1 | 2 606 | 3 355 | 5 961 | 56 |
2 | 6 971 | 2 096 | 9 067 | 23 |
3 | 7 007 | 1 973 | 8 980 | 22 |
4 | 6 571 | 1 748 | 8 319 | 21 |
5 | 5 963 | 1 615 | 7 578 | 21 |
6 | 4 963 | 1 253 | 6 216 | 20 |
7 | 4 238 | 1 311 | 5 549 | 24 |
8 | 3 291 | 46 | 4 237 | 22 |
9 | 2 780 | 544 | 3 324 | 16 |
10 | 2 348 | 477 | 2 825 | 17 |
11 | 1 732 | 272 | 2 004 | 13 |
12 | 1 524 | 252 | 1 776 | 14 |
13 | 1 111 | 224 | 1 338 | 17 |
14 | 913 | 218 | 1 131 | 19 |
其他 | 3 243 | 860 | 4 100 | 20 |
因此,连接点的位置是区分韵律短语与非韵律短语的一个重要特征。
表 5为各内弧跨度的韵律分布情况,可以看出:1)内弧跨度一般处于0~7之间,其词所处边界为韵律短语边界的内弧跨度一般处于0~5之间。2)当内弧跨度大于3时,随着跨度的增加,韵律短语边界所占的比值也在增大。
内弧跨度 | 非韵律短语 | 韵律短语 | 总数 | 占比/% |
0 | 12 022 | 4 700 | 16 722 | 28 |
1 | 4 424 | 3 573 | 7 997 | 45 |
2 | 26 454 | 4 733 | 31 187 | 15 |
3 | 9 957 | 2 319 | 12 276 | 19 |
4 | 4 351 | 2 037 | 6 388 | 32 |
5 | 2 374 | 1 367 | 3 741 | 37 |
6 | 1 483 | 894 | 2 377 | 38 |
7 | 867 | 657 | 1 524 | 43 |
>7 | 1 846 | 1 586 | 3 432 | 46 |
由此可见,内弧跨度也同样与韵律结构存在一定关系,可以将这一特征应用于韵律短语识别中。
2 基于句法依存和CRFs的韵律短语识别 2.1 CRFs模型介绍条件随机场(conditional random fields, CRFs)模型是基于条件概率的一种判别式序列标注模型,主要通过计算输出序列单元的条件概率值来进行识别判断,条件随机场模型是在给定一个观察序列的条件下实现对整个隐藏状态序列求解,从而得出整个序列的联合条件概率,最后完成全局最优解的查找[12]。条件随机场模型训练预测时将整个序列作为条件进行归一化处理,有效地避免了隐Markov等模型的独立性假设和状态偏置问题,而且该模型最大限度地结合了上下文信息,运用超强的推理能力,对混杂的特征序列训练建模,使得训练的模型含有丰富的序列组合信息。
2.2 韵律短语识别韵律短语识别的过程实际上就是一个序列标注的过程。在CRFs模型中,把所有句子都看作序列,句子中的每个语法词都是一个时刻,观察序列就是前后语法词的相关信息,而语法词的边界信息是隐藏的状态序列,即标记序列。在韵律短语识别中边界状态标记有2种:Y与N(Y表示韵律短语边界,N表示不是韵律短语边界)。CRFs在识别过程中通过将获取的每个待标序列的特征与权重作为条件概率的输入参数,计算出这一待标序列的概率,然后对整个状态序列的分布情况进行归一化处理,从而得到全局最优解。
2.3 特征选取在模型训练中,特征集的选取直接影响着模型性能的高低。本文所选取的特征项为:词、词性、词长、句法层级差、连接点、依存类型、内弧跨度这7种。特征集合表示为
$ X=\{W、P、L、D、C、T、S\}. $ |
其中:W表示语法词,P表示词性,L表示词长,D表示句法层级差,C表示语法词的连接点,T表示该语法词与连接点的依存类型,S表示内弧跨度。
在模型建立中,除特征类别外,必须要考虑的是特征窗口的大小,窗口包含了上下文的文本信息,窗口如果过大,会导致信息冗余,降低模型的训练速度;窗口过小,会导致模型学习信息不够,模型性能不高。本文通过重复实验最终选定的窗口大小为“4+1”,特征模板由原子特征和组合特征构成,如表 6所示。
特征类型 | 特征表示 | 含义 |
词 | W0 | 当前词 |
W±i(i=1, 2) | 当前词前后i个词 | |
词性 | P0 | 当前词的词性 |
P±i(i=1, 2) | 当前词前后i个词的词性 | |
词长 | L0 | 当前词的词长 |
L±i(i=1, 2) | 当前词前后i个词的词长 | |
句法层级差 | D0 | 当前词的句法层级差 |
D±i(i=1, 2) | 当前词前后i个词的层级差 | |
连接点 | C0 | 当前词的连接点 |
C±i(i=1, 2) | 当前词前后i个词的连接点 | |
依存类型 | T0 | 当前词的依存弧类型 |
T±i(i=1, 2) | 当前词前后i个词的依存弧型 | |
内弧跨度 | S0 | 当前词的内弧跨度 |
S±i(i=1, 2) | 当前词前后i个词的内弧跨度 | |
词性组合 | W0W1W-1 | 当前词与前后词的词性组合 |
句法层级差组合 | D0D1D-1 | 当前词与前后词的句法层级差组合 |
连接点组合 | C0C1C-1 | 当前词与前后词的连接点组合 |
依存类型组合 | T0T1T-1 | 当前词与前后词的依存类型组合 |
内弧跨度组合 | S0S1S-1 | 当前词与前后词的内弧跨度组合 |
依存特征组合 | C0T0S0 | 当前词3种依存特征组合 |
2.4 评价指标
韵律短语预测结果的评价标准大体上有主观评价和客观评价2种,主观评价指的是专家对预测出的每个结果进行打分;客观评价是现在最常用的一种评价方式,主要通过预测结果与原标注结果对比,利用准确率、召回率以及F值这3个指标进行判定。定义如下:
$ \begin{array}{l} {\rm{准确率 = }}\frac{{{\rm{正确识别的韵律短语个数}}}}{{{\rm{识别出的韵律短语总数}}}} \times 100\% \\ {\rm{召回率 = }}\frac{{{\rm{正确识别的韵律短语个数}}}}{{{\rm{标注的韵律短语总数}}}} \times 100\% \\ \;\;\;\;\;\;\;F{\rm{值 = }}\frac{{2 \times {\rm{准确率}} \times {\rm{召回率}}}}{{{\rm{准确率 + 召回率 }}}} \end{array} $ |
本文将2 500句实验语料平均分为5组,每组包含500句,采用5折交叉验证的方式进行实验,其中训练集语料为2 000句,测试集语料为500句。
3.2 实验结果分析本文选取词、词性、词长、句法层级差、连接点、依存弧类型、内弧跨度7类特征项构建特征模板,利用条件随机场模型进行韵律标注,得到实验结果如表 7所示。可以看出,基于句法依存和CRFs模型进行韵律识别,平均准确率为87.14%、召回率为81.27%、F值为84.09%。
实验 | 准确率/% | 召回率/% | F值/% |
实验1 | 86.30 | 84.12 | 85.20 |
实验2 | 88.39 | 80.94 | 84.50 |
实验3 | 88.37 | 81.24 | 84.66 |
实验4 | 87.59 | 79.99 | 83.62 |
实验5 | 85.04 | 80.07 | 82.48 |
平均值 | 87.14 | 81.27 | 84.09 |
为了更好地验证句法依存特征对韵律识别的积极作用,本文将表 6中的句法依存相关特征去除后作为特征模板,利用条件随机场模型进行韵律短语识别,并将实验结果与上表 7中的结果进行F值的比对,结果如图 5所示。可以看出:加入句法依存特征后,在韵律短语识别5组实验结果中F值都有明显的提高,平均提高了14%。
![]() |
图 5 F值结果比较 |
本文除构建CRFs模型外,同时构建了最大熵模型和BP-Adaboost模型[13-14],并对加入句法依存特征前后的实验结果进行了对比,结果如表 8所示。
无句法依存特征 | 加入句法依存特征 | ||||||||||
模型 | 准确率 | 召回率 | F值 | 准确率 | 召回率 | F值 | |||||
% | % | % | % | % | % | ||||||
CRFs | 73.84 | 66.58 | 69.99 | 87.14 | 81.27 | 84.09 | |||||
MaxEnt | 85.43 | 68.99 | 76.31 | 89.37 | 79.25 | 83.97 | |||||
BP-Adaboost | 92.66 | 62.70 | 74.71 | 92.82 | 73.40 | 81.94 |
从表 8中可以看出:1)与基于浅层文本特征预测结果相比,加入句法依存这类深层文本特征后,3种模型的精确率、召回率和F值都所提高。2) CRFs模型的性能最优,加入句法依存特征后,精确率提高了13.3%,召回率提高了14.69%,F值提高了14.1%。
另外,将本文方法与其他的方法进行了比较,结果如表 9所示。
方法 | 准确率/% | 召回率/% | F值/% |
句法+TBL | 75.2 | 77.1 | 76.1 |
依存+TBL | 48.2 | 26.5 | 34.2 |
Our Approach | 87.14 | 81.27 | 84.09 |
从表 9可以看出,将CRFs模型与句法依存特征相结合进行韵律短语识别,识别效果较好。
4 结论本文首先对语料进行句法和依存句法分析;其次,在调查句法结构与韵律结构、依存句法结构与韵律结构之间相互关系的基础上,确定以词、词性、词长、句法层级差、连接点、依存弧类型、内弧跨度这7类特征构建韵律短语识别的特征集;然后分别利用条件随机场、最大熵、BP-Adaboost方法构建加入句法依存特征前后的韵律短语识别模型并进行测试。实验结果表明;句法依存特征的加入使得模型在精确率、召回率、F值上都有一定的提升,对韵律短语的识别具有一定的积极作用。
[1] |
曹剑芬. 基于语法信息的汉语韵律结构预测[J]. 中文信息学报, 2003, 17(3): 41-46. CAO J F. Prediction of prosodic organization based on grammatical information[J]. Journal of Chinese Information Processing, 2003, 17(3): 41-46. DOI:10.3969/j.issn.1003-0077.2003.03.007 (in Chinese) |
[2] |
应宏, 蔡莲红. 基于结构助词驱动的韵律短语界定的研究[J]. 中文信息学报, 1999, 13(6): 41-46, 64. YING H, CAI L H. Research on the segmentation of the prosodic phrase based on driven by the structural auxiliary word[J]. Journal of Chinese Information Processing, 1999, 13(6): 41-46, 64. (in Chinese) |
[3] |
吴晓如, 王仁华, 刘庆峰. 基于韵律特征和语法信息的韵律边界检测模型[J]. 中文信息学报, 2003, 17(5): 48-54. WU X R, WANG R H, LIU Q F. Detection model of prosodic boundary based on prosodic features and syntactic information[J]. Journal of Chinese Information Processing, 2003, 17(5): 48-54. DOI:10.3969/j.issn.1003-0077.2003.05.008 (in Chinese) |
[4] |
包森成.基于统计模型的韵律结构预测研究[D].北京: 北京邮电大学, 2009. BAO S C. Research on prosodic structure prediction based on statical model[D]. Beijing: Beijing University of Posts and Telecommunications, 2009. (in Chinese) http://www.wanfangdata.com.cn/details/detail.do?_type=degree&id=Y1567536 |
[5] |
王琦.基于深度神经网络的韵律结构预测研究[D].北京: 北京交通大学, 2016. WANG Q. Research on prosodic structure prediction based on deep neural network[D]. Beijing: Beijing Jiaotong University, 2016. (in Chinese) http://cdmd.cnki.com.cn/Article/CDMD-10004-1016058554.htm |
[6] |
冯志茹.基于语块的汉语韵律短语边界识别研究[D].太原: 山西大学, 2015. FENG Z R. A research on identification of Chinese prosodic phrase boundary based on Chinese chunk[D]. Taiyuan: Shanxi University, 2015. (in Chinese) |
[7] |
朱玲.基于句法特征的汉语韵律边界预测的研究[D].兰州: 西北师范大学, 2013. ZHU L. Research on predicting Chinese prosodic boundary based on syntactic features[D]. Lanzhou: Northwest Normal University, 2013. (in Chinese) http://cdmd.cnki.com.cn/Article/CDMD-10736-1014019433.htm |
[8] |
DONG Y, ZHOU T, DONG C Y, et al. A two-stage prosodic structure generation strategy for mandarin text-to-speech systems[J]. Acta Automatica Sinica, 2010, 36(11): 1569-1574. |
[9] |
NAKAMURA C, ARAI M, MAZUKA R. Immediate use of prosody and context in predicting a syntactic structure[J]. Cognition, 2012, 125(2): 317-323. |
[10] |
邵艳秋, 穗志方, 韩纪庆, 等. 基于依存句法分析的汉语韵律层级自动预测技术研究[J]. 中文信息学报, 2008, 22(2): 116-123. SHAO Y Q, SUI Z F, HAN J Q, et al. A study on Chinese prosodic hierarchy prediction based on dependency grammar analysis[J]. Journal of Chinese Information Processing, 2008, 22(2): 116-123. DOI:10.3969/j.issn.1003-0077.2008.02.019 (in Chinese) |
[11] |
ROBINSON J J. Dependency structures and transformational rules[J]. Language, 1970, 46(2): 259-285. |
[12] |
LAFFERTY J D, MCCALLUM A, PEREIRA F C N. Conditional random fields: Probabilistic models for segmenting and labeling sequence data[C]//Proceedings of the 18th International Conference on Machine Learning. San Francisco, USA: Morgan Kaufmann Publishers, 2001: 282-289. http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.23.9849
|
[13] |
吕雁飞, 侯子骄, 张凯. 多分类BP-AdaBoost算法研究与应用[J]. 高技术通讯, 2015, 25(5): 437-444. LV Y F, HOU Z J, ZHANG K. Study of multiclass BP-AdaBoost and its application[J]. Chinese High Technology Letters, 2015, 25(5): 437-444. DOI:10.3772/j.issn.1002-0470.2015.05.001 (in Chinese) |
[14] |
钱揖丽, 冯志茹. 利用AdaBoost-SVM集成算法和语块信息的韵律短语识别[J]. 计算机工程与科学, 2015, 37(12): 2324-2330. QIAN Y L, FENG Z R. Recognition of Chinese prosodic phrases based on AdaBoost-SVM algorithm and chunk information[J]. Computer Engineering and Science, 2015, 37(12): 2324-2330. DOI:10.3969/j.issn.1007-130X.2015.12.020 (in Chinese) |