匹兹堡大学的神经科学家创建了一个机器学习模型来了解大脑如何识别交流声音。该模型在豚鼠身上进行了测试,准确预测了大脑对不同声音类别的反应。该研究还表明,豚鼠可以识别变化的声音,这反映了人类理解不同口音的能力。这项工作可以帮助提高对语音识别障碍的理解和治疗,并增强助听器。
在今天(5 月 2 日)发表在《通信生物学》上的一篇论文中,匹兹堡大学的听觉神经科学家描述了一种机器学习模型,该模型有助于解释大脑如何识别交流声音的含义,例如动物叫声或口头语言。
研究中描述的算法模拟了社会动物(包括狨猴和豚鼠)如何使用大脑中的声音处理网络来区分声音类别(例如交配、食物或危险的呼叫)并根据它们采取行动。
这项研究是理解声音识别背后的神经元处理的复杂性和复杂性的重要一步。这项工作的见解为理解并最终治疗影响语音识别和改进助听器的障碍铺平了道路。
“我们认识的每个人或多或少都会在生命中的某个时刻失去一些听力,这可能是由于衰老或暴露在噪音中。了解声音识别的生物学并找到改进它的方法很重要,”高级作者和皮特大学神经生物学助理教授 Srivatsun Sadagopan 博士说。“但声音交流的过程本身就很吸引人。我们的大脑彼此互动,可以接受想法并通过声音传达它们的方式简直是神奇的。”
大脑示意图组织中的声音处理网络
嘈杂的声音输入通过听觉皮层中的兴奋性和抑制性神经元网络来清理信号(部分由听者的注意力引导)并检测声音的特征,使大脑能够识别通信声音,而不管它们如何变化由扬声器和周围的噪音发出。图片来源:Manaswini Kar
人类和动物每天都会遇到种类繁多的声音,从丛林的杂音到繁忙餐厅内的嗡嗡声。无论我们周围世界的声音污染如何,人类和其他动物都能够相互交流和理解,包括他们的声音或口音。例如,当我们听到“你好”这个词时,无论说它是带有美国口音还是英国口音,无论说话者是女人还是男人,无论我们是在安静的房间还是忙碌的地方,我们都能认出它的意思路口。
标签:
免责声明:本文由用户上传,如有侵权请联系删除!