Root 发自 凹非寺

量子位 出品 | 公众号 QbitAI

在生物医学的研究里,显微镜可以帮助科学家们观察定位细胞水平或分子水平的物质。

常用的相差显微镜观察法,是从生物组织的一侧给光,对细胞损伤小,且材料准备过程非常简单。

可如果想要知道细胞核确切的位置,或者分析神经元树突的数量或要看细胞是死是活,此前的办法是必须要结合免疫荧光标记法,然后用荧光显微镜观察。

Cell:和免疫荧光标记说拜拜 | 谷歌深度学习模型预测荧光位置

如果不用荧光标记,就能看懂小图1-4分别代表啥的话,算你厉害

Cell:和免疫荧光标记说拜拜 | 谷歌深度学习模型预测荧光位置

蓝色,细胞核;红色,轴突;绿色,树突

Cell:和免疫荧光标记说拜拜 | 谷歌深度学习模型预测荧光位置

1,神经元聚团;2,突触;3,轴突;4,只剩两神经元活着,左下那个挂了(对比上个小图4看)

但做过免疫荧光标记的同学都知道。拿到一张好的荧光照片,一路上有多么不容易。

实验材料养大养好拿去切片这些体力上的苦就不说了。

上一抗二抗还有封闭,每一步都是坑。即使十万分小心走完了前面所有的步骤,到最后上荧光显微镜的时候还得面临光漂白的囧况。

这还只是固定的片子。荧光标记还有个不可忽视的缺陷,染料有毒。活体细胞上了荧光之后活不了多久,所以那些时间跨度很长的生理实验就别想了。

怎么样清晰定位目标物,同时还能绕开免疫荧光标记的缺点呢?

鱼和熊掌可以兼得

今天,谷歌科学加速团队(Google Accelerated Science team)在Cell上发表了一篇In Silico Labeling: Predicting Fluorescent Labels in Unlabeled Images论文。样本无需荧光染色,用深度学习模型就可预测出目标物的位置。

Cell:和免疫荧光标记说拜拜 | 谷歌深度学习模型预测荧光位置

不仅省去了免疫荧光繁琐的过程,还不用担心背景噪音、不同荧光染料串色的问题。刚切完脑片(或培养好的其他组织细胞),就可以直接放相差显微镜上拍片了,剩下的交给算法模型就好。

模型训练及工作原理

和所有模型一样,这个预测荧光标记的模型需要获得靠谱的训练集。

因此,谷歌科学加速团队联合了哈佛Rubin实验室以及格拉德斯通研究所(Gladstone Institutes),收集了三种细胞(多功能干细胞诱导的人类运动神经元、人类乳腺癌细胞、大鼠大脑皮层组织培养细胞)在三种光学显微镜(明场、相差、微分干涉相差)下的图像数据。

下图顶行的细胞三维信息,重构自二维图像数据的叠影。不同的level表示不同的荧光标记物,马赛克的位置表明该实验样品没有进行此类荧光标记。

Cell:和免疫荧光标记说拜拜 | 谷歌深度学习模型预测荧光位置

经过此数据集(图1A)的训练,模型(图1C)就可以直接把没有荧光标记的相差显微图像(图1 D)处理成带荧光标记的图像了,预测出特定结构或蛋白的位置。

Cell:和免疫荧光标记说拜拜 | 谷歌深度学习模型预测荧光位置

这个预测标记算法还具备迁移学习能力,只要少量的训练数据,马上可以获得新型荧光标记的预测能力。深受免疫荧光标记之苦的胖友,可以前往GitHub获取该模型的代码和全部数据集。

这下细胞分子生物学出结果发paper的效率要飞起来了。

最后,附论文地址:

http://www.cell.com/cell/fulltext/S0092-8674(18)30364-730364-7)

及荧光标记预测模型代码:

https://github.com/google/in-silico-labeling

— 完 —

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态

相关文章