据站长之家 11 月 14 日报道,一项最新研究发现,尽管 AI 在静态图像上的识别能力强大,但在处理动态面部表情时,其表现与人脑存在显著差异。来自达特茅斯学院与博洛尼亚大学的研究团队针对深度卷积神经网络(DCNNs)进行了研究,这是人工智能中用于识别视觉图像的关键组件。问题根源在于,深度卷积神经网络在识别静态图像方面表现出色,但由于当前设计主要用于静态图像识别,对于动态表情的处理相对欠缺。 研究中,团队通过使用不同族裔、年龄和表情的面部视频进行测试,与以往主要使用静态图像不同。结果显示,尽管人脑对面部的神经表征在参与者之间高度相似,而 AI 对面部的人工神经编码在不同 DCNNs 之间也高度相似,但是与 DCNNs 的脑活动相关性较弱。这表明,目前的人工神经网络仅能捕捉到人脑信息的一小部分,尤其是在处理动态面部时。对此,研究建议,为了更准确地模拟人脑对面部处理的方式,AI 开发者需要构建基于真实生活刺激(如动态视频中的面部)的算法,而不是仅仅依赖静态图像。
(责编: admin)
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:goldenhorseconnect@gmail.com