自家宠物到底在想什么?这是困扰着无数人的未解之谜。
这些毛孩子们不会说话,人类只好从眼睛,耳朵,身体和尾巴等一切细节变化来解读它们的想法,比如:狗狗摇晃尾巴是表示友好,而猫摇晃尾巴则可能生气了。但是,这些经验之谈不但费眼,而且费脑,很多时候还是不能正确get动物的意思。
谁能告诉我,它们到底在想什么?
动物的行为确实能反映内心想法和情绪,但它们尾巴弯曲的角度,站立姿势的微妙不同,可能代表着完全不同的内心情绪。单凭人类的肉眼,要分辨出这种细微的差异实在是天方夜谭。为了捕捉到毛孩子们的任何一个小动作,我们需要一双更强大的“火眼金睛”。
那么,这个系统是如何实现“读心术”的呢?
近年来,得益于机器学习算法和计算机性能的巨大飞跃,包括DeepLabCut、SLEAP在内的动物姿态追踪方法为行为量化打开了新的思路。但目前的多数动物行为视频拍摄都是基于单摄像头获取二维运动信息,而动物行为发生在三维空间中,二维行为采集不仅会因为动物身体遮挡产生误差和假信号,还丢失了一个维度的信息。例如,顶部的单个摄像头获取的二维行为数据就无法准确分辨出动物是否处于攀爬状态。
为了能全面获取动物的行为信息,BehaviorAtlas突破了二维视频分析框架,使用“机器学习+三维重建”的方法,提出并构建了全自动的行为三维捕捉系统。该系统使用多视角相机的捕捉无惧遮挡,以极低成本在计算机中稳定获取动物三维数据,可以重建动物行为的三维运动结构(图1a,视频1)。
视频1三维行为采集系统效果。左侧的四个视频为四个相机从不同视角拍摄的动物的实际行为状况,右侧为对应的三维重建后的动物骨架。
BehaviorAtlas遵循了动物行为的自然结构设计。BehaviorAtlas基于层次化方法,利用无监督分类算法自底向上构建三层行为框架,将底层对应为每帧中的动物姿态,并向上组合成有意义的动作如奔跑、左转、站立、嗅探等,进而组成行为图谱。
如果将动物行为比喻成人类语言,那么动物的姿态就是最基础的字母,组成有意义的动作(单词),最终构成行为谱(句子)(图2,视频2)。这种做法避免了人类依靠主观印象对行为的粗暴划分。
视频2三维行为层次动态分解。左侧为多视角拍摄及三维估计重建。右侧上部为48维的运动轨迹原始数据(16身体点的x,y,z坐标);右侧下方为Behavior将连续的行为分解为对应时刻的姿态序列和人们可以理解的动作状态。
听到“你好”这个句子就知道别人在跟你打招呼,那么行为图谱真的能够让我们“读懂”动物吗?
Shank3B基因缺失会导致小鼠患上自闭症,但是这些小鼠与正常小鼠在外观上毫无分别,只能通过一些刻板行为来区分。然而,在旷场实验中(旷场试验是将动物放置在一个封闭的平面区域中观测其活动),几个传统的行为学参数无法精准量化疾病小鼠与正常小鼠间的行为差异。不过,基于BehaviorAtlas,研究人员在Shank3B基因敲除小鼠中发现了新的亚秒级的自闭样刻板行为。
最后,研究人员将所有的行为参数进行降维,构建“自闭样行为空间”,发现仅使用行为参数,就能够区分Shank3B基因敲除小鼠与正常小鼠。
在BehaviorAtlas火眼金睛下,毛孩子们的小动作再也无所遁形。随着动物行为分析技术的发展,小动物们的心思迟早会暴露得一干二净。届时,我们大概就能知道,猫的性格到底有多古怪了吧。
当然,BehaviorAtlas用处远不止这些。对动物行为的观测在现代生命科学研究中也具有重要意义。比如,脑科学的核心目标就是研究大脑与行为的关系,比起传统的观测分析手段,BehaviorAtlas能更准确、客观、高效的量化行为,帮助科研人员全面理解动物行为与脑功能、脑疾病的关系,从而促进人们对大脑认知机制、类脑智能以及脑疾病诊疗等研究领域的突破。
参考文献:
1.老舍.猫[J].中学语文,2000(12):5.
2.Wiltschko,A.B.etal.Mappingsub-secondstructureinmousebehavior.Neuron88,1121–1135(2015).
3.Berman,G.J.,Bialek,W.&Shaevitz,J.W.PredictabilityandhierarchyinDrosophilabehavior.Proc.NatlAcad.Sci.USA113,11943–11948(2016).
5.Datta,S.R.,Anderson,D.J.,Branson,K.,Perona,P.&Leifer,A.Computationalneuroethology:acalltoaction.Neuron104,11–24(2019).
6.Mathis,A.etal.DeepLabCut:markerlessposeestimationofuser-definedbodypartswithdeeplearning.Nat.Neurosci.21,1281–1289(2018).