2. 慕尼黑工业大学 工业设计系, 慕尼黑 80805, 德国
2. Chair of Industrial Design, Technical University of Munich, Munich 80805, Germany
调查表明,中国用户在购买汽车时,有超过75%的人群认为汽车外观造型是首要决定因素[1]。车型是否为市场所接受,很大程度上决定于汽车造型设计能否赢得消费者的好评。用户从汽车造型的识别开始,获得产品意象,最终形成心理上的审美评价。有关学者对汽车造型问题进行了研究,一般是通过语义差异法获得各造型要素与感性意象之间的关系,并通过主成分分析法、聚类分析法、人工神经网络等,降低认知空间维度,获得对造型要素的感性评价。黄琦等[2]建立了基于特征匹配的产品意象认知模型,并开发了汽车草图设计原型系统;Yadav 等[3]提出质量功能展开(quality function deployment,QFD)模型,将感性意象转化为可用的设计参数;胡伟峰等[4, 5]基于遗传算法提出用户期望意象驱动的汽车造型基因进化思想和方法流程;Hsiao[6, 7, 8]运用模糊集方法研究了汽车造型风格、色彩及意象;McCormack等[9]运用形状文法,总结出了别克汽车的设计语言;Lai等[10]以汽车外形轮廓为例,提出了“感知度”(feeling quality,FQ)的概念来量化用户对产品的感知意象,从而实现产品设计的参数与用户感知意象的映射;Coughlan等[11]提出用多次显示的方法对汽车设计方案进行美学评价;LUO等[12]提出一套评价方法,以建立汽车轮毂造型与车体外轮廓造型之间的感性匹配。
总体而言,上述研究尚存在以下不足: 1) 汽车造型各要素通常是相互关联的,很难在各自独立的前提下界定,并且用户是经过综合认知加工后产生整体意象,因此对各造型要素评价的简单累加并不能得到完整而全面的结果。2) 虽然研究表明产品意象是可以定量化的,但是因为对产品的评价是人们基于认知的、对产品内在属性和外在表现的一种主观描述和感性认识,这种评价从根本上来说是对模糊性现象的描述,具有个体差异性,缺乏客观标准。
针对以上问题,本文提出一种基于眼动跟踪特征的汽车造型评价方法,以眼动热点图为基础构建车型评价指标体系,通过“色度-饱合度-亮度(hue-saturation-value,HSV)”模型提取其颜色特征,并计算其灰度直方图的各项统计值,将汽车造型的评价定义为二分类问题,构建汽车造型评价的判别函数模型,实现对汽车外观造型的整体性评价并建立客观性标准,为厂商新车型的开发提供技术支持。
1 眼动跟踪技术与汽车造型认知 1.1 基于眼动跟踪的汽车造型整体性认知研究显示,80%~90%的外界信息是由人眼获取的。20世纪中期以后,摄像技术的发展与计算机技术的运用推动了高精度眼动仪的研发,促进了眼动研究在相关学科中的应用[13]。
根据研究,人类的眼动主要包括3种方式: 注视、眼跳、追随运动。眼动跟踪的主要测量参数包括: 1) 注视点数量;2) 注视时间;3) 注视转换频次;4) 注视时间比率;5) 扫描路径;6) 首注视点等[14]。由于人的正向静视野范围达到180°,用户在观察汽车造型时能够迅速地进行特征的扫视和注视,同时在人脑中进行“特征捆绑”的信息处理,因此通过眼动跟踪实验可以获得这一认知过程的信息,进而对汽车造型作出整体性评价。
1.2 眼动数据指标体系的建立 1.2.1 热点图方法为了便于在实际中应用,需要将大量眼动跟踪数据通过合理的可视化方式进行处理与分析,从而直观地表达出眼动数据的时空分布特征。目前,主要方法包括: 扫描路径法、热点图法、感兴趣区法、3维空间法[15]。对于汽车造型评价而言,关键在于衡量造型特征对视觉的吸引力指数以及比较其对意象认知的影响强度。热点图可被用于发现最能引起用户注意的视觉对象,比较各视觉对象吸引用户注意力的强弱关系,并具有支持多用户数据显示的优点。因此,本文将基于热点图构建眼动跟踪的指标体系。
具体而言,热点图将眼动跟踪数据转化为2维彩色图像,将用户的注视点个数、注视持续时间及占总时间的百分比、扫描路径等数据,映射为颜色、透明度等可视化参数,并叠加在作为背景的眼动实验刺激材料上。计算公式为
${T_i} = {T_{i - 1}} + \left\{ \begin{array}{l} \frac{{R - D}}{R} \cdot \frac{{{W_i} - Q \cdot B}}{B},\;\;\;当\;D \le R\\ 0,\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;其他 \end{array} \right.. $ | (1) |
式(1)中:假设在背景图片上的注视点共有n个,第i个注视点在热点图上单个像素累计透明度为Ti(i=1,2,3,…,n);R为注视点对周围像素影响的最大半径;D为各像素到第i个注视点的距离;Wi为第i个注视点的持续时间;B为热点图完全透明时所对应的注视点最小持续时间;Q是表示不透明的指数(完全遮挡时Q=100%)。 B,Q,R,D可根据需要预先设定,且规定T0=Q,Ti 取值范围为[0,1]。以此为基础,通过“蓝-绿-黄-红”的颜色映射表示注视时间,时间越长则偏暖色(红色),反之则偏冷色(蓝色)。
1.2.2 基于热点图的指标体系建立步骤1 颜色特征提取。
为了与人眼的感知特点相符,将热点图RGB模式转化为HSV颜色模型。其中:H∈[0,360],代表色度;S∈[0,1],代表饱和度;V∈[0,1],代表亮度。由于在眼动热点图中采用统一的饱和度和亮度,不具有区分性,因此将色度值作为颜色特征。以色度平均值K作为指标,
$K = \frac{1}{N}\sum\limits_{m = 0}^N {{K_m}.} $ | (2) |
式(2)中:N为热点图中总的像素数,Km为第m个像素点对应的色度值。
步骤2 灰度直方图特征提取。
为进一步获取热点图的信息,本文采用灰度直方图特征提取的方法对热点图进行处理。灰度直方图实质上是表示灰度级的一种离散函数,
$H\left( i \right) = \frac{{{n_i}}}{N},\;\;\;i = 0,1,\cdots ,L - 1. $ | (3) |
式(3)中:i表示灰度级,L表示灰度级种类数(0~255),ni 表示热点图中具有灰度级i的像素个数,N表示图像总的像素个数。以此为基础,对灰度直方图进行进一步分析,通过统计特征量建立指标体系,如表1所示。
指标名称 | 释义 | 计算公式 |
灰度均值 | 反映了图像的平均灰度状况 | $\mu = \sum\limits_{i = 0}^{L - 1} {iH\left( i \right)} $ |
灰度方差 | 反映了图像灰度值的离散分布情况 | ${\sigma ^2} = \sum\limits_{i = 0}^{L - 1} {{{\left( {i - \mu } \right)}^2}H\left( i \right)} $ |
偏斜度 | 反映了图像的灰度直方图分布的不对称程度,偏斜度越大表示直方图分布越不对称,反之则越对称 | ${\mu _{\rm{S}}} = \frac{1}{{{\sigma ^3}}}\sum\limits_{i = 0}^{L - 1} {{{\left( {i - \mu } \right)}^3}H\left( i \right)} $ |
峰态 | 峰态反映的是图像的灰度分布在接近均值时的状态,用以判断图像的灰度分布是否非常集中于平均灰度附近。峰态越小,表示越集中; 反之,表示越分散 | ${\mu _{\rm{K}}} = \frac{1}{{{\sigma ^4}}}\sum\limits_{i = 0}^{L - 1} {{{\left( {i - \mu } \right)}^4}H\left( i \right) - 3} $ |
能量 | 能量反映的是直方灰度分布的均匀程度,灰度分布较均匀时能量较大,反之则较小 | ${\mu _{\rm{N}}} = \sum\limits_{i = 0}^{L - 1} {{H^2}\left( i \right)} $ |
熵 | 熵反映了直方图灰度分布的均匀性 | ${\mu _{\rm{E}}} = - \sum\limits_{i = 0}^{L - 1} {H\left( i \right){{\log }_2}[H\left( i \right)]} $ |
对汽车造型的评价从本质上说是样本分类问题,即通过观察或测量指标,将汽车造型分为若干 “好”、“中”、“差”评价级。在实际的运用中,多将研究对象分为两类,G1和G2,称为二分类问题。例如,将汽车造型分为两类,“识别度高”的为一类,“识别度低”的为另一类;进一步将该两类汽车造型进行比较,归纳出提高车型识别度的设计方法,并对新车型的识别度进行预测分析。由此,本文给出以下定义:
定义1 设n个汽车造型样本集合为C={C1,C2,C3…Cn},将汽车造型眼动热点图的颜色特征与灰度直方图特征提取后的统计指标作为特征,则特征集合为X={X1,X2,…,X7}。其中: X1为灰度均值(μ);X2为灰度方差(σ2);X3为偏斜度(μS);X4为峰态(μK);X5为能量(μN);X6为熵(μE);X7为色度均值(K)。以上数值构成一个7行n列的特征矩阵,
$\left[\begin{array}{l} {X_{11}}\;\;\;{X_{21}}\;\;\;{X_{31}}\;\;\; \cdots \;\;\;{X_{n1}}\\ {X_{12}}\;\;\;{X_{22}}\;\;\;{X_{32}}\;\;\; \cdots \;\;\;{X_{n2}}\\ {X_{13}}\;\;\;{X_{23}}\;\;\;{X_{33}}\;\;\; \cdots \;\;\;{X_{n3}}\\ {X_{14}}\;\;\;{X_{24}}\;\;\;{X_{34}}\;\;\; \cdots \;\;\;{X_{n4}}\\ {X_{15}}\;\;\;{X_{25}}\;\;\;{X_{35}}\;\;\; \cdots \;\;\;{X_{n5}}\\ {X_{16}}\;\;\;{X_{26}}\;\;\;{X_{36}}\;\;\; \cdots \;\;\;{X_{n6}}\\ {X_{17}}\;\;\;{X_{27}}\;\;\;{X_{37}}\;\;\; \cdots \;\;\;{X_{n7}} \end{array} \right]. $ |
对于某个汽车造型Cj∈C而言,其特征值为{Xj1,Xj2,Xj3,Xj4,Xj5,Xj6,Xj7},可构成一个7维的特征向量,
${X_j} = {\left( {{x_1},{x_2},{x_3},{x_4},{x_5},{x_6},{x_7}} \right)^{\rm{T}}}. $ | (4) |
对汽车造型Cj的评价,即根据其7个特征值,判断其属于两类G1和G2中的某一类。
定义2 建立面向汽车造型的线性判别函数,其形式为
$\begin{array}{l} \;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;d\left( x \right) = \\ {w_1}{x_1} + {w_2}{x_2} + {w_3}{x_3} + \cdots + {w_7}{x_7} + {w_8}. \end{array} $ | (5) |
式(5)中:d(x)为判别值,x1、x2、…x7为基于汽车造型热点图的7项特征值,w1、w2、…w7为判别系数,用以判定特征值权重,w8为常量。对于汽车造型的二分类问题判别,采用以下决策规则:
$ \begin{array}{l} \;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;d\left( x \right) = \\ \left\{ \begin{array}{l} {\rm{ < 0}},S于{G_1}\\ {\rm{ > 0}},S于{G_2}\\ {\rm{ = 0}},则S属于中任一类,或拒绝分类 \end{array} \right.\;\;\;\;\;\;\;\;\;\;\;\;. \end{array} $ | (6) |
Fisher判别法被公认为是特征提取的最有效方法之一[16],尤其适用于二分类判别分析。其基本思想是通过投影的方法进行降维,把多维空间的样本投影在一条直线上,从而最大限度地缩小同类样本的差异,并且扩大不同类样本间的差异;最优方向的投影线,需要通过样本训练得到。Fisher判别法借用了一元方差分析的思想,依据组间均方差和组内均方差之比最大的原则进行判别。本文将基于Fisher判别建立线性函数。首先,计算多维空间内样本均值向量Mi,
${M_i} = \frac{1}{{{n_i}}}\sum\limits_{x \in {G_i}} x ,\;\;\;\;\;i = 1,2. $ | (7) |
式(7)中,ni为样本个数。通过变换,映射到1维空间后的均值向量为mi,
${m_i} = \frac{1}{{{n_i}}}\sum\limits_{y \in {G_i}} y ,\;\;\;\;\;i = 1,2. $ | (8) |
映射后得到的样本组内离散度为Si2,
$S_i^2 = \sum\limits_{y \in {G_i}} {{{\left( {y - {m_i}} \right)}^2}} ,\;\;\;\;\;i = 1,2, $ | (9) |
定义Fisher的准则函数为
${J_{\rm{F}}}\left( w \right) = \frac{{{{\left| {{m_1} - {m_2}} \right|}^2}}}{{S_1^2 + S_2^2}} = \max . $ | (10) |
其中,JF(w)最大解即为最佳解向量,即Fisher的线性判别式。
3 实例研究与方法验证本文提出总体方法流程如图1所示。
3.1 训练样本的选取确定汽车造型分类为用户“喜好度高(G1)”和“喜好度低(G2)”两类。研究表明,在汽车的各部分造型中,前部正面造型最能传达意象与风格信息[2]。搜集不同品牌的乘用车前部正面造型图片共30张,均为市场上现售车型。为避免影响,将图片处理为无彩色,并将车标覆盖,分辨率600 dpi。 被试者共17名,其中男性12人,女性5人,均有两年以上驾驶经验,平均年龄24.8岁。
使用-3(否)~3(是)的Likert量表进行问卷调查。提出问题为: “您是否喜欢这款车的造型”。统计显示: 各样本喜好度均值为-0.35,中位数为-0.59。 分值最高和最低分别为1.06(科鲁兹)和 -1.18(雪铁龙C1),具有典型意义,将其作为训练样本材料。分别编号No. 1和No. 2,如图2所示。
3.2 训练样本的眼动跟踪实验及特征提取 3.2.1 眼动跟踪实验使用德国Ergonieers公司生产的Dikablis头戴式眼动跟踪仪进行测试。该眼动跟踪仪为单眼式跟踪模式,以红外摄像头捕捉左眼瞳孔。在测试开始前,每一位被试者分别进行调校。实验开始后将样本的图片全屏呈现在19英寸(1英寸=2.54 cm)显示器上,被试者采用坐姿并与显示屏保持平视,相距约90 cm,如图3所示。
被试者共有11名,其中男性7人,女性4人,平均年龄26.4岁。主持人向被试者介绍实验的目的和方法后,发出指令,要求被试者以视觉审美为目的观看样本图片,时间为15 s。实验结果由 D-lab 软件处理。
3.2.2 眼动热点图处理与特征提取1) 由软件分别生成11名被试者的眼动热点图,限于篇幅,仅列举其中一位被试眼动热点图,如图4所示(彩色图处理为灰度图后)。
2) 对训练样本No. 1和No. 2的眼动热点图进行处理和特征提取。首先,将眼动热点图从背景实验材料中剥离,同时对颜色信息进行量化编码。然后,将彩色图处理为灰度图,得到直方图。以图5a为例,处理后得到的灰度直方图如图5b所示。
对11名被试者眼动热点图进行特征提取,经统计得到指标的值如表3和4所示。
被试 | X1=μ | X2=σ2 | X3=μS | X4=μK | X5=μN | X6=μE | X7=K |
被试1 | 76.346 | 1 788.728 | 0.716 | -0.486 | 0.008 | 7.155 | 208.956 |
被试2 | 79.026 | 2 129.913 | 0.810 | -0.278 | 0.008 | 7.253 | 204.916 |
被试3 | 78.364 | 2 043.521 | 0.881 | -0.027 | 0.008 | 7.247 | 204.922 |
被试4 | 79.672 | 2 119.298 | 0.653 | -0.595 | 0.008 | 7.274 | 201.987 |
被试5 | 78.162 | 2 061.861 | 0.648 | -0.596 | 0.008 | 7.270 | 204.800 |
被试6 | 79.783 | 1 946.110 | 0.703 | -0.403 | 0.008 | 7.253 | 204.865 |
被试7 | 72.196 | 1 734.479 | 0.747 | -0.514 | 0.009 | 7.112 | 211.551 |
被试8 | 85.691 | 2 230.868 | 0.444 | -0.792 | 0.007 | 7.354 | 195.052 |
被试9 | 75.153 | 1 853.770 | 0.731 | -0.427 | 0.008 | 7.168 | 209.516 |
被试10 | 69.907 | 1 841.278 | 1.067 | 0.499 | 0.009 | 7.104 | 208.741 |
被试11 | 67.869 | 1 675.367 | 0.979 | 0.238 | 0.009 | 7.047 | 214.489 |
被试 | X1=μ | X2=σ2 | X3=μS | X4=μK | X5=μN | X6=μE | X7=K |
被试1 | 71.672 | 1 777.848 | 0.822 | -0.147 | 0.008 | 7.134 | 214.830 |
被试2 | 76.022 | 2 102.735 | 0.686 | -0.328 | 0.009 | 7.196 | 201.925 |
被试3 | 75.403 | 1 790.197 | 0.570 | -0.523 | 0.008 | 7.160 | 207.962 |
被试4 | 72.638 | 1 997.063 | 0.724 | -0.391 | 0.008 | 7.165 | 209.644 |
被试5 | 76.849 | 1 799.905 | 0.536 | -0.554 | 0.009 | 7.149 | 204.490 |
被试6 | 84.029 | 2 209.908 | 0.514 | -0.664 | 0.007 | 7.355 | 200.821 |
被试7 | 72.214 | 1 690.260 | 0.742 | -0.194 | 0.008 | 7.143 | 212.836 |
被试8 | 73.551 | 2 065.443 | 0.788 | -0.256 | 0.008 | 7.185 | 203.025 |
被试9 | 72.778 | 1 574.610 | 0.627 | -0.456 | 0.008 | 7.114 | 217.732 |
被试10 | 75.336 | 2 266.348 | 0.767 | -0.257 | 0.008 | 7.245 | 201.653 |
被试11 | 73.065 | 1 978.316 | 0.892 | 0.130 | 0.009 | 7.175 | 206.489 |
表3和4中的数值矩阵经过Fisher判别(限于篇幅,计算过程不再赘述)计算后结果: “喜好度高”的组中心点数值为-1.644,“喜好度低”的组中心点数值为1.644。 典型相关系数为0.865;特征值(即组间平方和与组内平方和之比)为2.975;p=0.002,表明差异显著;得到判别方程为
$\begin{array}{l} d\left( x \right) = - 0.775{x_1} + 0.009{x_2} - 36.676{x_3} + \\ \;\;\;\;9.960{x_4} + 2707.174{x_5} + 39.319{x_6} + \\ \;\;\;\;\;\;\;\;\;\;\;\;\;0.364{x_7} - 310.079. \end{array} $ | (11) |
本例为二类判别,以0为分界点;针对某款车型前部正面造型,对用户进行眼动跟踪测试并将其热点图的特征值代入判别方程,若分值大于0的表明该用户不喜欢车型的设计,分值小于0的表明喜欢。
3.3.2 判别函数模型的检验另外选取汽车造型作为样本,对上述函数模型进行检验(如图6所示)。
对11名被试者的眼动热点图进行处理与判别计算,并将计算结果与7点Likert量表(-3~+3)结果进行对比,结果如表5所示。
被试编号 | 判别函数计算结果 | Likert量表结果 |
1 | -1.475 | +1 |
2 | -0.282 | 0 |
3 | -1.432 | +2 |
4 | -0.283 | +1 |
5 | -2.477 | +3 |
6 | -1.071 | -1 |
7 | -1.577 | +1 |
8 | -3.654 | 0 |
9 | 0.090 | -1 |
10 | -1.890 | +3 |
11 | -0.780 | -1 |
独立样本T检验结果显示,p=0.212,两结果无显著性差异,表明该方法是可行的。
4 总结与展望本文提出了一种基于眼动跟踪技术的汽车造型评价方法,以眼动热点图为基础构建指标体系,并通过提取热点图的颜色特征和灰度直方特征加以实现;将汽车造型的评价定义为分类问题,采用Fisher判别进行样本的二分类,建立判别函数模型。最后,以实例具体论述了该方法的步骤,T检验的结果证实了方法的有效性与实用性。该方法具有较高的准确度,为实现汽车造型的客观性与量化评价提供了一种可行的技术途径。
在未来的研究工作中,将进一步对函数模型进行优化,使加权指标与用户评价偏差最小。同时,由于眼动的复杂性,存在“Midas接触”问题[17],即眼动信号以主动方式扫过实验材料,系统无法区分用户是有意选择还是无意掠过,这也是需要解决的重要问解。
[1] | 中国汽车工业协会, 大众汽车集团(中国).中国汽车产业发展报告: 2013[M]. 北京:社会科学文献出版社, 2013. China Association of Automobile Manufactures, Volkswagen China. Annual Report on Automotive Industry in China: 2013 [M]. Beijing: Social Science Academic Press, 2013. (in Chinese) |
[2] | 黄琦, 孙守迁.基于意象认知模型的汽车草图设计技术研究[J]. 浙江大学学报: 工学版, 2006, 40(4): 553-559. HUANG Qi, SUN Shouqian. Research on automobile sketch design based on image cognition model [J]. Journal of Zhejiang University: Engineering Science, 2006, 40(4): 553-559. (in Chinese) |
[3] | Yadav H C, Jain R, Sandarbh S, et al. Prioritization of aesthetic attributes of car profile [J]. International Journal of Industrial Ergonomics, 2013, 43: 297-303. |
[4] | 胡伟峰, 赵江洪.用户期望意象驱动的汽车造型基因进化[J]. 机械工程学报, 2011, 47(16): 176-181. HU Weifeng, ZHAO Jianghong. Automobile styling gene evolution driven by users expectation image [J]. Journal of Mechanical Engineering, 2011, 47(16): 176-181. (in Chinese) |
[5] | 胡伟峰, 赵江洪, 赵丹华.基于造型特征线的汽车造型意象研究[J]. 中国机械工程, 2009, 20(4): 496-500. HU Weifeng, ZHAO Jianghong, ZHAO Danhua. Study on styling image of vehicle based on form feature lines [J]. China Mechanical Engineering, 2009, 20(4): 496-500. (in Chinese) |
[6] | Hsiao S W. Fuzzy set theory applied to car style design [J]. International Journal of Vehicle Design, 1994, 15(3): 255-278. |
[7] | Hsiao S W. Fuzzy set theory on car-color design [J]. Color Research and Application, 1994, 19(3): 202-213. |
[8] | Hsiao S W, Chan G M S. A semantic recognition based approach for car's concept design [J]. International Journal of Vehicle Design, 1997, 18(1): 53-82. |
[9] | McCormack J P, Cagan J, Vogel C M. Speaking the Buick language: Capturing, understanding, and exploring brand identity with shape grammars [J]. Design Studies, 2004, 25: 1-29. |
[10] | Lai H H, Chang Y M, Chang H C. A robust design approach for enhancing the feeling quality of a product: A car profile case study [J]. International Journal of Industrial Ergonomics, 2005, 35: 445-460. |
[11] | Coughlan P, Mashman R. Once is not enough: Repeated exposure to and aesthetic evaluation of an automobile design prototype [J]. Design Studies, 1999, 20: 553-563. |
[12] | LUO Shijian, FU Yetao, ZHOU Yuxiao. Perceptual matching of shape design style between wheel hub and car type [J]. International Journal of Industrial Ergonomics, 2012, 42: 90-102. |
[13] | Hyoenae J, Radach R, Deubel H. The Mind's Eye: Cognitive and Applied Aspects of Eye Movement Research [M]. Amsterdam, Netherlands: Elsevier Science BV, 2003: 13-15. |
[14] | Djamasbi S, Siegel M, Tullis T, et al. Efficiency, trust, and visual appeal: Usability testing through eye tracking[C]// Proceedings of the 43rd Hawaii International Conference on System Sciences. Big Island, HI: IEEE Computer Society, 2010: 1-10. |
[15] | Andrienko G, Andrienko N, Burch M, et al. Visual analytics methodology for eye movement studies [J]. IEEE Transactions on Visualization and Computer Graphics, 2012, 18(12): 2889-2898. |
[16] | 杨淑莹.模式识别与智能计算[M]. 北京:电子工业出版社, 2011: 105. YANG Shuying. Pattern Recognition and Intelligent Computing [M]. Beijing: Publishing House of Electric Industry, 2011: 105. (in Chinese) |
[17] | 卢兆麟, 汤文成, 薛澄岐.一种基于形状文法的产品设计DNA推理方法[J]. 东南大学学报:自然科学版, 2010, 40 (4): 704-711. LU Zhaolin, TANG Wencheng, XUE Chengqi. A method of design DNA reasoning based on shape grammar [J]. Journal of Southeast University: Natural Science Edition, 2010, 40(4): 704-711. (in Chinese) |