基于机器学习和瞳孔响应的简易高性能自闭症分类模型
刘强墨, 何旭, 周佰顺, 吴昊霖, 张弛, 秦羽, 沈晓梅, 高小榕    
清华大学 生物医学工程系,北京 100084
摘要:自闭症(autism spectrum disorder, ASD)的早期诊断对自闭症的康复至关重要。近年来,利用机器学习和眼动追踪技术对儿童进行早期自闭症诊断已成为自闭症领域的研究热点。该文在前人工作的基础上,提出了一种基于相对瞳孔响应的眼动数据预处理和瞳孔响应特征提取方法,并使用朴素Bayes算法构建了自闭症分类模型。在现有3~6岁的25名ASD儿童和50名典型发育(typical development, TD)儿童的眼动数据集Autism Detection Dataset上进行了验证,发现了自闭症儿童异常的瞳孔响应。实验结果表明:该文提出的方法在深入挖掘瞳孔特征并仅使用瞳孔特征建模的同时,实现了90.67%的平均分类准确率与92.24%的平均AUC值,优于前人同时使用瞳孔特征、注视行为特征来建模实现的82.2%的平均准确率的结果和同时使用注视行为特征、运动学特征来建模实现的78%的平均准确率的结果,兼具简易和高性能的优点。这不仅证明了该方法的有效性,还提高了基于机器学习和眼动追踪的这类自闭症早期辅助诊断系统真正应用到临床的可行性。
关键词自闭症    机器学习    瞳孔响应    分类模型    
Simple and high performance classification model for autism based on machine learning and pupillary response
LIU Qiangmo, HE Xu, ZHOU Baishun, WU Haolin, ZHANG Chi, QIN Yu, SHEN Xiaomei, GAO Xiaorong    
Department of Biomedical Engineering, Tsinghua University, Beijing 100084, China
Abstract: Early diagnosis of autism spectrum disorder (ASD) is very important for improving autism treatment. Recent studies have investigated early diagnosis of children with ASD using machine learning and eye tracking. This paper presents an eye tracking and pupillary response feature extraction method with a naive Bayes classification model for autism that was tested on the Autism Detection Dataset, a dataset of 25 children with ASD and 50 children with typical development aged 3-6 to identify abnormal pupillary responses in children with autism. The method has an average classification accuracy of 90.67% and an average AUC of 92.24% while using only the pupillary features for modeling, which is better than the 82.2% average accuracy achieved by a pupillary and gaze behavior feature model and 78% average accuracy achieved by a gaze behavior and kinematic feature model. This method is simple and accurate. The results show the effectiveness of this method and the feasibility of real clinical applications of this type for early autism diagnosis based on machine learning and eye tracking.
Key words: autism    machine learning    pupillary response    dassification model    

随着近年自闭症(autism spectrum disorder, ASD)发病率激增,对儿童和病患家庭的影响引起了社会的普遍关注。自闭症的早期诊断直接影响干预治疗的时机,从而影响其康复效果[1]。而目前临床的自闭症诊断方法多采用一系列的评估量表[2-5],完全依赖医生的专业素养和经验积累。如何利用现代技术提高自闭症早期诊断的客观性和准确性,是自闭症研究所面临的新挑战。

眼动追踪技术因具有非侵入、无接触地捕捉到人眼注视行为和瞳孔生理指标的优点而被广泛应用于研究自闭症儿童的社交注视模式和瞳孔生理响应[6-18]。近年来,利用机器学习和眼动追踪技术对儿童进行自动化早期自闭症诊断已成为自闭症早期辅助诊断领域的研究热点[5, 7, 19]

Vabalas等[7]研究了自闭症和正常成年人的运动模仿差异,他们使用运动模仿任务中的注视行为特征和运动学特征对22位自闭症和22位正常成年人进行机器学习建模分类,实现了78%的平均分类准确率。

Dinalankara等[13]使用瞳孔绝对直径研究发现了2~6岁的自闭症儿童存在非典型的瞳孔对光反射效应,在典型发育(typical development, TD)组中,基线瞳孔半径与年龄有明显正相关性,而ASD组却没有。

在之前的研究中[20],研究者设计了瞳孔对光反射实验和正脸实验诱发2类儿童的瞳孔响应和主观注视行为,使用瞳孔绝对直径变化相关和人脸各部位注视时间相关的特征,分别训练了2个机器学习模型。融合2个模型对自闭症儿童进行了分类预测,实现了88.2%的平均精准率、57.7%平均召回率、82.2%的平均准确率和91.7%的AUC值。

这一系列的研究证明了眼动追踪技术结合机器学习来进行自闭症的早期诊断是可行的,但先前的工作对眼动数据特别是瞳孔数据的处理研究不够深入,特别是过分追求高AUC值而忽略了召回率,所以在瞳孔数据预处理、特征提取与选择、分类建模上仍有优化的空间。

因此,本文研究的目的是尝试优化自闭症早期辅助诊断系统的数据处理、瞳孔响应特征提取和分类建模过程,试图用一种新的眼动数据预处理和瞳孔响应特征提取方法,探索自闭症异常的瞳孔响应,建立单一模型,并在本文现有的眼动数据集Autism Detection Dataset [20]上验证其性能(数据集和相关代码可通过链接下载获取https://github.com/liuqm19/AutismDetection)。

1 实验数据 1.1 提供自闭症眼动数据集的受试者

Autism Detection Dataset包含75名3~6岁的儿童提供的有效眼动数据,其中有25名ASD的儿童和50名TD的儿童。如表 1所示,该数据集所有受试者的年龄均值控制为3~6岁,年龄标准差不超过1岁。由于ASD男孩的发病率约是女孩的4倍,女孩一旦患病多为重症[21],因此在本就难以接触到的ASD患儿中,女患儿更难接触到,造成了该数据集中样本天然倾斜。

表 1 受试者情况分布表
组别 性别 人数 年龄均值 年龄标准差
ASD 男性 22 4.93 0.85
女性 3 5.43 0.40
TD 男性 26 4.93 0.77
女性 24 5.50 0.67

1.2 实验数据采集方式

该自闭症眼动数据集是利用SMI RED500眼动仪进行刺激的同时进行采集的,该眼动仪的系统结构图和实物图如图 1所示。

图 1 SMI RED500系统结构图及实物图

瞳孔对光反射刺激范式来源于Dicriscio等[15]的研究,刺激材料如图 2所示,为一系列连续呈现并充满显示器的全灰、全黑和全白图片组成。本文在这此基础上,设置黑白图片持续时间为5 s以实现0.1 Hz的闪烁刺激,设置灰色图片持续时间为10 s以提取瞳孔基线直径。整个实验范式一共呈现6张全白图片和6张全黑图片,共持续70 s。

图 2 自闭症眼动数据集的刺激材料

实验数据采集过程中,保持实验环境安静舒适,控制环境光照强度,通过规范引导语提示受试儿童端坐在距离显示器40~70 cm的椅子上,视线注视显示器,开始实验,播放刺激材料,眼动仪同时记录数据。

2 眼动数据预处理 2.1 缺失值处理

由于眼动仪所采集到的眼动瞳孔数据在某些采样点上存在缺失值,因此需要对其进行缺失值填充。

缺失值处理的第1步是计算缺失率,本文认为若某张刺激图片呈现时前2 s的数据缺失率大于25%,则该图片对应的瞳孔数据为无效数据。

缺失值处理的第2步是填充缺失值,缺失值填充的方法有很多,本文比较了前向后向填充法和线性插值填充法。如图 3所示,对比了这2种缺失值填充方法在实际数据的缺失值处理中插值前后的区别,这里用全白图片刺激呈现时前2 s内的瞳孔直径变化曲线的3个真实样例展示了这种区别。

图 3 前向后向填充法和线性插值填充法对比

图 3a3c是插值之前的瞳孔直径变化曲线,其中样例1、2较样例3缺失率更大,曲线中具体表现为更多的缺失空白段。图 3b3d是分别使用2种方法进行缺失值填充后的瞳孔直径变化曲线。对比图 3a3b可以看出,前向后向填充法简单地使用前一个有效采样点(若无,则后一个)的值替换某段缺失值,导致数据出现了失真变化,具体表现为图 3a中3个样例曲线上的缺失空白段在图 3b中都被其前面或后面的有效值直接覆盖填充,填充处的斜率与前后不一致,缺失率越大,这种失真越明显,如图 3b中红色圆圈标示处,样例3较样例2失真更明显。图 3b3d对比可以看出,线性插值填充法较前一种方法,3个样例的插值结果更加平滑,特别是在样例3缺失率较大的红色圆圈标示处,斜率几乎没有改变,故线性插值填充法能够更好地还原真实数据。

本文先以25%的缺失率阈值来标记无效数据,再采用线性插值的缺失值填充方法来对瞳孔数据的缺失值进行填充。

2.2 滤波去噪

经过缺失值处理后的瞳孔数据虽然采样点连续并且能一定程度上反映真实的瞳孔直径变化,但其仍存在伪迹,需要对伪迹进行滤除。本文比较了5 Hz的低通滤波和5点2阶S-G滤波[22]

图 4所示,对比了这2种滤波方法在实际数据的处理中滤波前后的区别,这里同样用上述的3个样例展示了这种区别。从图 4b中可以看出,使用5 Hz低通滤波后3个样例的所有高频毛刺均被滤除,曲线变得很平滑,但对比图 4a图 4b中红圈标注处可知,相比样例1和3而言,样例2中真实瞳孔直径的最值点产生了失真,低通滤波改变了样例2的最值点,这会导致后续瞳孔直径的特征提取受到影响。而如图 4d所示,S-G滤波的方法在滤去数据伪迹的情况下,仍然能够保持样例2原来的最小值点不变,所以该方法能够有效保留这类原始数据的边缘信息,克服了5 Hz低通滤波器的缺点。本文选择S-G滤波的滤波去噪方法对瞳孔数据进行处理。

图 4 低通滤波和S-G滤波对比

2.3 基线矫正归一化

通过对灰色图片呈现10 s内前4个有效采样点的瞳孔直径取平均值,求得瞳孔基线直径,记为ABaseline。用瞳孔基线直径对插值和滤波后的瞳孔数据AUncorrected做校正。对瞳孔数据进行基线矫正归一化的公式表示如下:

$ A_{\text {Corrected }}=\frac{A_{\text {Uncorrected }}-A_{\text {Baseline }}}{A_{\text {Baseline }}} \times 100 \% . $ (1)

瞳孔直径绝对值构造的特征与儿童的年龄呈现正相关性[13],为了消除年龄带来的影响,本文使用式(1)对瞳孔数据进行处理,得到了瞳孔相对变换ACorrected

通过基线矫正归一化,可以有效避免瞳孔直径的绝对值固有的年龄相关性对实验最终分类结果的影响。

3 瞳孔响应特征提取

图 5展示了刺激呈现2 s后瞳孔收缩和扩张响应过程和提取的特征,如图 5a所示,通过获取瞳孔受到全白图片刺激后收缩过程中相对变化的最大值ACmax、最小值ACmin和其对应的出现时间TCmaxTCmin,可以计算瞳孔相对收缩幅度AC、收缩时间TC,进而计算出平均收缩速度VC,得到瞳孔收缩响应下的7个特征。如图 5b所示,在瞳孔扩张响应的特征提取过程中,本研究用相似的方法计算出瞳孔受到全黑图片刺激后扩张过程中相对变化的最小值ADmin、最大值ADmax和其对应的出现时间(TDminTDmax)、相对扩张幅度AD、扩张时间TD和平均扩张速度VD这7个扩张特征。值得注意的是,前人的工作[13, 20, 23]多聚焦于瞳孔收缩响应,较少考虑瞳孔扩张响应,本文将瞳孔扩张响应纳入研究范围,提取出了更多的瞳孔响应信息,有利于瞳孔响应特征的研究。

图 5 瞳孔响应特征提取

在排除了2.1节中的无效刺激图片基础上,提取出了上述特征在多次刺激下的统计特征,即最大(max)、最小(min)、中位(middle)、平均(mean)、标准差(std) 5个统计特征,用以后续的机器学习分类建模。统计量以前缀表示,如min_AC,即代表统计意义下最小的瞳孔相对收缩幅度。同时把12张黑白刺激图片中有效的刺激图片数(count)也作为一个可选的特征,一共构造了71个特征。后文叙述为方便起见,特征名皆以英文代表。

4 实验结果 4.1 瞳孔响应特征的统计学显著性及相关性

使用统计学t检验对整个数据集上提取到的瞳孔响应特征进行显著性差异分析。

表 2图 6所示,24个瞳孔响应特征在2类样本间具有显著性差异。表 2中“p值”列表示各个特征在2类人群中表现出的显著性差异水平,其中“特征标记”列反应了特征在2类人群间的均值之差,“较小”表示自闭症人群中该特征较小,“较大”表示该特征较大。

表 2 2类样本间具有显著性差异的特征
特征序号 特征名 自闭症组均值±标准差 正常组均值±标准差 p 特征标记
1 mean_ACmax 0.40±0.20 0.30±0.08 4.5×10-3** 较大
2 mean_ACmin -0.19±0.11 -0.25±0.06 8.59×10-4*** 较大
3 std_TCmin 0.36±0.13 0.30±0.10 3.66×10-2* 较大
4 min_ACmax 0.24±0.26 0.14±0.13 1.63×10-2* 较大
5 min_ACmin -0.25±0.11 -0.32±0.07 4.44×10-3** 较大
6 middle_ACmax 0.41±0.19 0.32±0.09 8.40×10-3** 较大
7 middle_ACmin -0.19±0.10 -0.25±0.05 1.41×10-3** 较大
8 max_ACmax 0.51±0.20 0.39±0.11 1.68×10-3** 较大
9 max_ACmin -0.11±0.12 -0.19±0.07 9.14×10-4*** 较大
10 mean_ADmax 0.31±0.17 0.20±0.07 1.47×10-4*** 较大
11 mean_ADmin -0.08±0.11 -0.14±0.06 8.06×10-4*** 较大
12 mean_AD 0.39±0.10 0.34±0.07 1.65×10-2* 较大
13 std_ADmax 0.08±0.07 0.05±0.02 3.06×10-3** 较大
14 min_ADmax 0.22±0.19 0.14±0.08 8.12×10-3** 较大
15 min_ADmin -0.17±0.12 -0.23±0.07 2.23×10-3** 较大
16 min_AD 0.29±0.10 0.24±0.08 4.60×10-2* 较大
17 min_VD 0.19±0.06 0.15±0.04 7.99×10-4*** 较大
18 middle_ADmax 0.31±0.16 0.19±0.07 5.21×10-5*** 较大
19 middle_ADmin -0.09±0.10 -0.14±0.06 4.93×10-3** 较大
20 middle_AD 0.39±0.11 0.34±0.07 3.03×10-2* 较大
21 max_ADmax 0.42±0.22 0.27±0.09 1.15×10-4*** 较大
22 max_ADmin 0.04±0.16 -0.04±0.07 3.20×10-3** 较大
23 max_AD 0.49±0.13 0.43±0.10 3.48×10-2* 较大
24 count 8.48±1.56 11.06±1.16 7.46×10-12*** 较小
注:*p<0.05, **p<0.01, ***p<0.001。

注:* p<0.05; ** p<0.01, *** p<0.01。 图 6 显著性差异特征

图 7a以火山图的形式反映了24个瞳孔响应特征的显著性,以彩色标识出的显著性特征从灰色标识出的不显著性特征构成的火山口喷出。红色表示自闭症组的特征均值显著较大,蓝色表示显著较小。相关性分析的结果如图 7b所示,24个特征间的两两特征对中只有较少数的特征对呈现出高相关性的情况。

图 7 2类样本间特征显著性差异分析与特征间相关性

显著性和相关性分析的结果表明,采用本文的方法所构造的24个瞳孔响应特征,挖掘出了瞳孔数据中有效的信息,具备一定的鉴别2类人群的能力,且不存在大量高相关的特征。

4.2 机器学习模型分类性能

将4.1节中的特征输入机器学习分类模型进行训练,本文选用了最简单的朴素Bayes分类器来进行分类建模,原因有2点:

1) 朴素Bayes模型是一种概率生成模型,不需要人为调参来优化模型性能,使用该分类器来建模可以减少调参带来的影响,更好地检验本文的数据预处理方法和特征提取及筛选方法构造出的特征的有效性和鉴别力,从而验证本文方法的有效性和可行性。

2) 作为生成概率模型的朴素Bayes模型,其直接输出是各类别的概率值,这会方便未来扩展系统引入新的实验范式结果的情况下,直接采用基于概率的模型融合方法对系统进行快速扩展。

使用留一交叉验证法以平均的验证结果来衡量模型的性能。评估指标为精准率(precision, P)、召回率(recall, R)、准确度(accuracy, ACC)、曲线下面积(area under the curve, AUC),当不同结果在各个指标上大致相同时,依次按能够反映模型平均性能的ACC、AUC高的结果为优。

使用网格搜索的方法确定出最优的特征组合为全白图片呈现时前2 s瞳孔直径收缩到最小值所耗时间的方差(std_TCmin)、全黑图片呈现时前2 s瞳孔直径扩张到的最大值的均值(mean_ADmax)、有效的刺激图片数(count)。使用该特征组合训练得到的模型在本数据集上实现了90.67%的平均准确度和92.24%的平均AUC值。

表 3将本文的模型性能与前人的工作进行对比,本文的基于瞳孔响应的单模在多个评价指标上都达到了或优于前人工作中的单模甚至融合模型的水平,且本文提出的方法在多个不同指标上稳定的优秀表现,使得本文方法极具临床应用的可行性和潜力。

表 3 本文模型与前人工作的性能比较 
%
自闭症分类系统 P R ACC AUC
绝对瞳孔响应(单模)[20] 79.20 73.10 83.60 87.30
绝对瞳孔响应加兴趣区注视时间(融模)[20] 88.20 57.70 82.20 91.70
注视行为加行为学(融模)[7] / / 78.00 /
相对瞳孔响应(单模)[本文*] 87.50 84.00 90.67 92.24
注:/未报道。

针对Autism Detection Dataset[20]在组别和性别间样本数分布的偏斜性可能会影响实验结果的问题,如前所述,由于自闭症发病的特殊性[21],该数据集中样例的分布与自然分布是趋同的,以该数据集全集直接建模更能适应真实世界中的场景。

同时,本文也在上述结果基础上,取了该数据集的一个子集,并对结果进行了验证,保证该子集中样本数在组别和性别间匹配,该子集的分布如表 4所示。

表 4 受试者情况分布表(人数年龄匹配后的子集)
组别 性别 人数 年龄均值 年龄标准差
ASD 男性 22 4.86 0.87
女性 3 5.43 0.40
TD 男性 22 4.87 0.80
女性 3 5.33 0.58

在该子集上重复了上述计算,将最终所得的最优模型的性能与完整数据集上的结果进行比较,如表 5所示。从表 5中可以看出,不存在样本偏斜性的子集所得的最优模型性能在多个模型评价指标上均高于存在偏斜性的全集。这进一步验证了本文方法和结果的有效性。

表 5 子集所得的最优模型与完整数据集所得的模型的性能比较 
%
数据集 P R ACC AUC
全集 87.50 84.00 90.67 92.24
子集 95.65 88.00 92.00 94.08

4.3 自闭症与正常儿童瞳孔特征差异性

图 5中可知,在瞳孔收缩过程中最初阶段会出现一段潜伏扩张过程,同时在瞳孔扩张过程中最初阶段会出现一段潜伏收缩过程,故本文所挖掘的瞳孔响应特征兼顾了瞳孔直径总的变化和局部的潜伏变化。从图 6中可知,反映瞳孔收缩极限和收缩潜伏极限的ACminADmin的多个统计量的绝对值在自闭症组中显著较小;反映瞳孔扩张极限和扩张潜伏极限的ADmaxACmax的多个统计量在自闭症组中显著较大。

据此可用表 6的形式,从极限、潜伏极限2个维度刻画自闭症组与正常组在瞳孔收缩和扩张过程的能力。从表 6中可得,自闭症儿童较正常儿童瞳孔收缩极限、收缩潜伏极限更小,瞳孔扩张极限、扩张潜伏极限更大。

表 6 瞳孔收缩与扩张的能力
过程 状态 自闭症组 正常组 对应系列特征
瞳孔收缩 收缩极限 显著较小 显著较大 ACmin
潜伏扩张极限 显著较大 显著较小 ACmax
瞳孔扩张 扩张极限 显著较大 显著较小 ADmax
潜伏收缩极限 显著较小 显著较大 ADmin

5 结论

本文在前人工作的基础上,优化了自闭症早期辅助诊断系统的数据处理、瞳孔响应特征提取和分类建模过程,提出了一种以相对瞳孔响应为基础的眼动数据预处理和瞳孔响应特征提取方法,结合朴素Bayes模型建立了基于相对瞳孔响应特征的单一模型。与现有方法相比,所提出的方法在仅使用单一的瞳孔响应特征的同时提高了在现有的自闭症眼动数据集上的分类表现,这不仅证明了本文方法的有效性,而且提高了基于机器学习和眼动追踪的这类自闭症早期辅助诊断系统真正应用到临床的可行性。本文还发现了自闭症儿童异常的瞳孔响应,具体表现为更大的扩张幅度和更小的收缩幅度,这表明自闭症儿童可能具有更强的瞳孔扩张能力和更弱的瞳孔收缩能力,但研究者们对这种异常瞳孔响应的生理基础还知之甚少,未来需要更多机理方面的研究。

本文的方法实现了90.67%的分类正确率,仍有近10%的样例不能被正确分类。从样本偏斜性和数据野点来看,75个样本中自闭症组和正常组的比例是1∶2,样本严重向正常组偏斜,模型可能更容易学习到特征在正常组中的信息并在交叉验证时将自闭症样例误判为正常样例,同时从表 2图 6可知,瞳孔特征在自闭症组中的标准差普遍大于正常组,自闭症组可能存在野点从而导致模型误判。不存在样本偏斜性的子集所得的结果也验证了这一点。未来需要扩充更多自闭症组的样例来平衡样本并对野点进行专门处理,来进一步提高模型正确率。

本文对瞳孔扩张响应的特征提取简单沿用了瞳孔收缩响应的方法,未来可以独立研究扩张响应,挖掘其特有信息用以建模,进一步提高模型性能。同时,基于网格搜索这种数据驱动的特征选择方法所得到的最优特征组合中特征间存在一定相关性,未来可以尝试使用Wrapper法[24]或者基于互信息的特征选择方法[25]来实现更好的性能。另外,将本文的相对瞳孔响应模型和注视行为模型[20]融合可能会得到更好的预测性能。

参考文献
[1]
ROBEL L. Clinical features in autism[J]. Archives de Pédiatrie, 2009, 16(11): 1507-1512. DOI:10.1016/j.arcped.2009.07.018
[2]
BILDT A DE, SYTEMA S, KETELAARS C, et al. Interrelationship between autism diagnostic observation schedule-generic (ADOS-G), autism diagnostic interview-revised (ADI-R), and the diagnostic and statistical manual of mental disorders (DSM-IV-TR) classification in children and adolescents with mental retardation[J]. Journal of Autism and Developmental Disorders, 2004, 34(2): 129-137. DOI:10.1023/B:JADD.0000022604.22374.5f
[3]
张琴. DSM-Ⅳ孤独症诊断标准与克氏行为量表对儿童孤独症的诊断评价[J]. 医学理论与实践, 2006, 19(5): 586-587.
ZHANG Q. The diagnosis and evaluation of DSM-Ⅳ autism criteria and Klinefelter Behavior Scale for children with autism[J]. The Journal of Medical Theory and Practice, 2006, 19(5): 586-587. DOI:10.3969/j.issn.1001-7585.2006.05.088 (in Chinese)
[4]
邬方彦, 徐秀, 刘静, 等. 孤独症筛查量表(CHAT-23)的应用研究[J]. 中国儿童保健杂志, 2010, 18(4): 288-291.
WU F Y, XU X, LIU J, et al. Study on the application of Autism Screening Scale(CHAT-23)[J]. Chinese Journal of Child Health Care, 2010, 18(4): 288-291. (in Chinese)
[5]
THABTAH F, PEEBLES D. A new machine learning model based on induction of rules for autism detection[J]. Health Informatics Journal, 2020, 26(1): 264-286. DOI:10.1177/1460458218824711
[6]
MAO Y, HE Y, LIU L, et al. Disease classification based on eye movement features with decision tree and random forest[J]. Frontiers in Neuroscience, 2020, 14: 798. DOI:10.3389/fnins.2020.00798
[7]
VABALAS A, GOWEN E, POLIAKOFF E, et al. Applying machine learning to kinematic and eye movement features of a movement imitation task to predict autism diagnosis[J]. Scientific Reports, 2020, 10: 8346. DOI:10.1038/s41598-020-65384-4
[8]
BAST N, BANASCHEWSKI T, DZIOBEK I, et al. Pupil dilation progression modulates aberrant social cognition in autism spectrum disorder[J]. Autism Research, 2019, 12(11): 1680-1692. DOI:10.1002/aur.2178
[9]
NYSTRÖM P, GLIGA T, JOBS E N, et al. Enhanced pupillary light reflex in infancy is associated with autism diagnosis in toddlerhood[J]. Nature Communications, 2018, 9(1): 1678-1682. DOI:10.1038/s41467-018-03985-4
[10]
HALL C A, CHILCOTT R P. Eyeing up the future of the pupillary light reflex in neurodiagnostics[J]. Diagnostics, 2018, 8(1): 19-38. DOI:10.3390/diagnostics8010019
[11]
DICRISCIO A S, HU Y, TROIANI V. Brief report: Pupillometry, visual perception, and ASD features in a task-switching paradigm[J]. Journal of Autism and Developmental Disorders, 2019, 49(12): 5086-5099. DOI:10.1007/s10803-019-04213-8
[12]
DICRISCIO A S, HU Y, TROIANI V. Brief report: Visual perception, task-induced pupil response trajectories and ASD features in children[J]. Journal of Autism and Developmental Disorders, 2019, 49(7): 3016-3030. DOI:10.1007/s10803-019-04028-7
[13]
DINALANKARA D M R, MILES J H, TAKAHASHI N, et al. Atypical pupillary light reflex in 2-6-year-old children with autism spectrum disorders: Pupillary light reflex in 2-6 years old[J]. Autism Research, 2017, 10(5): 829-838. DOI:10.1002/aur.1745
[14]
FAN X, MILES J H, TAKAHASHI N, et al. Sex-specific lateralization of contraction anisocoria in transient pupillary light reflex[J]. Investigative Opthalmology & Visual Science, 2009, 50(3): 1137.
[15]
DICRISCIO A S, TROIANI V. Pupil adaptation corresponds to quantitative measures of autism traits in children[J]. Scientific Reports, 2017, 7(1): 6476-6484. DOI:10.1038/s41598-017-06829-1
[16]
DICRISCIO A S, HU Y, TROIANI V. Task-induced pupil response and visual perception in adults[J]. PLOS ONE, 2018, 13(12).
[17]
AGUILLON-HERNANDEZ N, MOFID Y, LATINUS M, et al. The pupil: A window on social automatic processing in autism spectrum disorder children[J]. Journal of Child Psychology and Psychiatry, 2020, 61(7): 768-778. DOI:10.1111/jcpp.13170
[18]
DICRISCIO A S, TROIANI V. Resting and functional pupil response metrics indicate features of reward sensitivity and ASD in children[J]. Journal of Autism and Developmental Disorders, 2021, 51(7): 2416-2435. DOI:10.1007/s10803-020-04721-y
[19]
SARGSYAN D, JAGANNATHA S, MANYAKOV N V, et al. Feature selection with weighted importance index in an autism spectrum disorder study[J]. Statistics in Biopharmaceutical Research, 2019, 11(2): 118-125. DOI:10.1080/19466315.2018.1537886
[20]
何旭. 面向自闭症早期诊断的眼动分析系统[D]. 北京: 清华大学, 2019.
HE X. Eye movement analysis system for early diagnosis of autism[D]. Beijing: Tsinghua University, 2019. (in Chinese)
[21]
AMERICAN P. Diagnostic and statistical manual of mental disorders[J]. Encyclopedia of the Neurological Sciences, 1994, 25(2): 4-8.
[22]
SAVITZKY A, GOLAY M J E. Smoothing and differentiation of data by simplified least squares procedures[J]. Analytical Chemistry, 1964, 36(8): 1627-1639. DOI:10.1021/ac60214a047
[23]
FAN X, MILES J H, TAKAHASHI N, et al. Abnormal transient pupillary light reflex in individuals with autism spectrum disorders[J]. Journal of Autism and Developmental Disorders, 2009, 39(11): 1499-1508. DOI:10.1007/s10803-009-0767-7
[24]
KOHAVI R, JOHN G H. Wrappers for feature subset selection[J]. Artificial Intelligence, 1997, 97(1-2): 273-324. DOI:10.1016/S0004-3702(97)00043-X
[25]
BATTITI R. Using mutual information for selecting features in supervised neural net learning[J]. IEEE Transactions on Neural Networks, 1994, 5(4): 537-550. DOI:10.1109/72.298224