国产精品亚洲日韩欧美色窝窝色欲|精产国品一二三产区蘑菇视频|国产人妻无码一区二区三区|狠狠躁日日躁夜夜躁A片男男|在线精品免费视频无码的

首頁 > 新聞資訊 >  業(yè)內(nèi)事態(tài)

熒光標(biāo)記再見,AI不用染色也能看見

瀏覽次數(shù):      2021年04月28日

模型可僅通過光學(xué)顯微鏡圖像就預(yù)測出細(xì)胞結(jié)構(gòu)的位置,而無需具有毒性的熒光標(biāo)記物。


    一直以來,來自華盛頓西雅圖艾倫細(xì)胞科學(xué)研究所的定量細(xì)胞生物學(xué)家、副總監(jiān)Susanne Rafelski和她同事都有一個看起來很簡單的目標(biāo):“我們希望能夠標(biāo)記細(xì)胞中多種不同的內(nèi)部結(jié)構(gòu),而且是在活細(xì)胞里進(jìn)行3D的結(jié)構(gòu)標(biāo)記?!?/p>


    這一目標(biāo)通常依賴于熒光顯微鏡來實(shí)現(xiàn),但問題是可用的染料數(shù)量有限,不足以完成對所有種類的細(xì)胞結(jié)構(gòu)進(jìn)行標(biāo)記。同時,熒光染料和試劑不僅昂貴、操作復(fù)雜,著色過程也對活細(xì)胞有害。當(dāng)光激活這些熒光物質(zhì)時,成像細(xì)胞的異常活躍會損害細(xì)胞?!盁o論哪個角度來說,熒光顯微都是耗費(fèi)很大的方式”,同在西雅圖艾倫研究所的腦科學(xué)中心顯微學(xué)家Forrest Collman說。當(dāng)Collman和同事嘗試使用3種不同顏色來拍攝3D延時視頻時,結(jié)果令人十分震驚。Collman回憶道:“你就眼睜睜的看著這些細(xì)胞在你面前凋零。

image.png

插圖:Project Twin

    而另一方面,基于投射白光進(jìn)行成像的亮視野顯微鏡并不依賴標(biāo)記物,從而避免了熒光顯微鏡存在的一系列問題。但這種顯微鏡對比度較低,大多數(shù)細(xì)胞結(jié)構(gòu)無法看出。Rafelski團(tuán)隊需要結(jié)合兩種成像方式的優(yōu)勢,科學(xué)家們不禁在想,人工智能是否可以在亮視野顯微鏡的基礎(chǔ)上,通過一種類似“虛擬染色”的過程,預(yù)測出細(xì)胞通過熒光標(biāo)記出結(jié)構(gòu)形態(tài)呢?2017年,Rafelski當(dāng)時的同事,機(jī)器學(xué)習(xí)科學(xué)家Gregory Johnson提出了這么個解決方案,他想利用一種稱為深度學(xué)習(xí)的AI模型,從亮視野顯微鏡的非染色圖像中識別出肉眼難以觀測的細(xì)胞結(jié)構(gòu)。


    “天啊,這居然能成,”Rafelski離開了幾個月,回來工作時Johnson告訴她自己搞定了。在非熒光標(biāo)記的細(xì)胞圖像上應(yīng)用深度學(xué)習(xí)算法,艾倫研究所的團(tuán)隊在一段3D視頻中呈現(xiàn)了細(xì)胞核內(nèi)的DNA和精細(xì)結(jié)構(gòu),以及細(xì)胞膜和線粒體[1]。


    “這些模型可以‘看’到人類看不到的結(jié)構(gòu)”,英國鄧迪大學(xué)的計量細(xì)胞生物學(xué)家Jason Swedlow說。他說,我們的眼睛并不適應(yīng)捕捉細(xì)微的結(jié)構(gòu),或諸如光學(xué)顯微鏡下的灰度模式,我們不是這么演化的,“你的眼睛是為了發(fā)現(xiàn)老虎獅子和樹之類的東西。


    在過去幾年里,AI領(lǐng)域的科學(xué)家們設(shè)計出了多種系統(tǒng)來抽取這些模式。模型利用亮視場顯微數(shù)據(jù)和與之精確對應(yīng)的熒光標(biāo)記數(shù)據(jù)來訓(xùn)練模型,但這些模型在處理數(shù)據(jù)的維度上略微不同,一些用作2D圖像,另一些用于3D;一些用于近似細(xì)胞結(jié)構(gòu)、一些則能生成足以亂真的顯微圖像。


    澳大利亞布里斯班轉(zhuǎn)化研究院的顯微設(shè)備主管Mark Scott說:“這代表了目前所能達(dá)到的最前沿水平?!倍F(xiàn)在需要生物學(xué)家與AI程序員合作,測試和改進(jìn)這些技術(shù)在真實(shí)環(huán)境中的應(yīng)用能力。


高速發(fā)展的領(lǐng)域

    加州大學(xué)神經(jīng)科學(xué)家Steven Finkbeiner,以及同在舊金山的格萊斯頓研究所,利用機(jī)器人顯微鏡對細(xì)胞進(jìn)行了長達(dá)一年的追蹤。在10年代前期,他的團(tuán)隊每天已經(jīng)能夠積累TB級的數(shù)據(jù)。這一研究吸引了谷歌研究者的注意,并拋出了合作的橄欖枝。Finkbeiner建議可以利用深度學(xué)習(xí)來從圖像中尋找人看不見的細(xì)胞結(jié)構(gòu)特征。


    深度學(xué)習(xí)利用計算機(jī)內(nèi)部的節(jié)點(diǎn)進(jìn)行層次堆疊模擬人腦內(nèi)部的神經(jīng)連接過程。首先節(jié)點(diǎn)間的鏈接權(quán)重被隨機(jī)初始化,所以計算機(jī)只是在猜;隨著訓(xùn)練過程的深入計算機(jī)可以逐漸調(diào)節(jié)這些權(quán)重或參數(shù),直到越來越對。


    Finkbeiner的團(tuán)隊曾訓(xùn)練了一個可以從2D圖像中識別出神經(jīng)元的模型,然后是挑出細(xì)胞核并判斷細(xì)胞是否還有活性[2]。Finkbeiner說:“這一項目的主要意義在于向科學(xué)家表明,圖像數(shù)據(jù)里包含著的信息,可能比他們以為的多得多?!眻F(tuán)隊將這一技術(shù)稱為“硅標(biāo)記”in silico labelling)。


    但這一方法無法識別出運(yùn)動神經(jīng)元,可能由于未標(biāo)記細(xì)胞中沒有任何信息可以表示出運(yùn)動神經(jīng)元的獨(dú)特性質(zhì)。Collman表示,這一技術(shù)只能在有AI可識別的視覺線索時有效,例如膜與周圍結(jié)構(gòu)具有不同的折射率,從而產(chǎn)生了不同的對比度信息,使得這一結(jié)構(gòu)可以被AI預(yù)測。


    Collman,Johnson和他們在艾倫研究所的同事們,利用一種不同的神經(jīng)網(wǎng)絡(luò)來解決Rafelski提出的問題,在一種名為U-Net的網(wǎng)絡(luò)結(jié)構(gòu)上構(gòu)建了系統(tǒng),U-Net是被研發(fā)用于處理生物圖像的。與Finkbeiner等人的方法不同,艾倫研究所的模型使用3D顯微圖像。一些科學(xué)家日常會用到這一模型,例如在染色質(zhì)組織學(xué)中識別出細(xì)胞核標(biāo)記。


    在伊利諾伊大學(xué)香檳分校,物理學(xué)家Gabriel Popescu同樣利用深度學(xué)習(xí),尋求一個基礎(chǔ)顯微問題的答案:一個細(xì)胞是死是活?這一工作可能比聽起來要困難許多,因為測試細(xì)胞活性需要借助毒性化學(xué)物質(zhì),這種矛盾的過程就像用刀捅開病人的動脈來觀察是否活著一樣。


    Popescu和同事將這一研究稱為PICS:基于計算特性的相位成像(phase imaging with computational specificity)。Popescu使用這一技術(shù)在活細(xì)胞中識別細(xì)胞質(zhì)和細(xì)胞核,并計算其質(zhì)量隨時間的變化[3]。 他說,這些標(biāo)記準(zhǔn)確地表明了細(xì)胞的生長和活力。


    PICS系統(tǒng)包含基于U-Net的軟件系統(tǒng)和顯微鏡硬件,整套系統(tǒng)無縫集成,而無需拍攝圖像后訓(xùn)練機(jī)器進(jìn)行處理。當(dāng)用戶拍攝好白光圖像后,模型僅僅需要65毫秒就能預(yù)測出細(xì)胞對應(yīng)的熒光標(biāo)記結(jié)構(gòu)。


    其他的研究團(tuán)隊還使用不同種類的機(jī)器學(xué)習(xí)算法。例如,華盛頓的美國天主教大學(xué)的一個團(tuán)隊利用叫GAN的神經(jīng)網(wǎng)絡(luò),從相襯光學(xué)顯微鏡識別圖像中識別細(xì)胞核[4]。GAN是一種生成對抗網(wǎng)絡(luò),包含兩個不同的模型,其中生成器用于預(yù)測出熒光標(biāo)記圖像,而判別器則用于判定生成的圖像是否是贗品。為了躲過判別器的鑒別,生成器需要不斷改進(jìn)以生成盡量真實(shí)準(zhǔn)確的結(jié)果,如果判別器在一半情況下被騙過,生成器就是在進(jìn)行可信的預(yù)測。這一項目的工程師Lin-Ching Chang表示:“甚至人類也無法區(qū)分生成樣本的真假了?!?/p>

藥物發(fā)現(xiàn)

    熒光標(biāo)記預(yù)測技術(shù)也在進(jìn)入制藥行業(yè)。瑞典哥德堡阿斯利康的藥理學(xué)家Alan Sabirsh一直致力于研究脂肪細(xì)胞在疾病和藥物代謝中的作用。Sabirsh和阿斯利康聯(lián)合了瑞典國家人工智能應(yīng)用中心舉辦了一場脂肪細(xì)胞成像挑戰(zhàn)賽,要求參賽者從未標(biāo)記顯微圖中識別出細(xì)胞核、細(xì)胞質(zhì)和脂肪滴。最終5000美元的獎金被Ankit Gupta、 H?kan Wieslander團(tuán)隊獲取,他們是瑞典烏普薩拉大學(xué)研究圖像處理技術(shù)的兩名博士生。


    與Chang和同事一樣,這一團(tuán)隊選擇利用GAN來識別脂肪滴。針對細(xì)胞核則使用了另一種方法LUPT(learning using privileged information,利用特權(quán)信息的學(xué)習(xí)),為機(jī)器的學(xué)習(xí)過程帶來額外的幫助。該團(tuán)隊使用了進(jìn)一步的圖像處理技術(shù),來識別標(biāo)準(zhǔn)訓(xùn)練圖像對中的細(xì)胞核。一旦模型訓(xùn)練完成,它就可以僅僅基于光學(xué)顯微鏡圖像來預(yù)測細(xì)胞核了[5]


    Gupta說,雖然生成的圖像并不完美,真實(shí)的熒光染色可以比模型預(yù)測結(jié)果提供更多細(xì)胞核與細(xì)胞質(zhì)的細(xì)節(jié)但對于Sabirsh來說已經(jīng)足夠了,他已經(jīng)開始將這些代碼應(yīng)用于機(jī)器人顯微鏡的實(shí)驗中,并期望開發(fā)出新的療法。


在多個技術(shù)原型驗證后,這一技術(shù)已經(jīng)度過了蹣跚學(xué)步階段,更多的研究者開始嘗試這一技術(shù)。Swedlow說:“我們正在學(xué)習(xí)行走,以及行走的意義所在?!?/p>


    例如,我們需要明確這一方法在白光成像中何時是有效的、而何時又應(yīng)該避免使用這一技術(shù)。麻省理工大學(xué)博德學(xué)院成像平臺高級總監(jiān)Anne Carpenter說,嘗試分割細(xì)胞內(nèi)部細(xì)胞器和結(jié)構(gòu)也許是一個很好的應(yīng)用,因為錯誤并不會顯著影響到下游任務(wù)的結(jié)果。不過,她對預(yù)測實(shí)驗結(jié)果抱有審慎的態(tài)度,因為機(jī)器可能只在可控條件下,依賴一種結(jié)構(gòu)預(yù)測另一種。“但在生物學(xué)中,我們常常尋找的就是例外。”Carpenter說。


Popescu說,目前來說,至少科學(xué)家們已經(jīng)能夠利用標(biāo)準(zhǔn)的熒光染色來確認(rèn)模型的關(guān)鍵預(yù)測是否正確。新墨西哥州立大學(xué)電子工程師Laura Boucheron補(bǔ)充說,最好尋求一位相關(guān)領(lǐng)域的專家進(jìn)行合作,“運(yùn)行并良好使用這些模型,需要大量重要的計算機(jī)專業(yè)知識。


    雖然一些模型只使用了少量的圖像進(jìn)行訓(xùn)練,但Boucheron認(rèn)為數(shù)據(jù)量越大越好。比利時根特大學(xué)VIB炎癥研究中心的計算生物學(xué)家Yvan Saeys認(rèn)為,幾百甚至上千的數(shù)據(jù)通常是必須的,如果你需要模型在多種細(xì)胞類型上或者來自不同顯微鏡設(shè)置下能有效運(yùn)行,需要在訓(xùn)練數(shù)據(jù)中涵蓋足夠多樣性的圖像。


    但Boucheron提醒,大體量的訓(xùn)練需要擁有多個圖形處理單元超級計算機(jī),訓(xùn)練上數(shù)周時間。但一旦模型訓(xùn)練完成,預(yù)測模型就可以在筆記本甚至手機(jī)端運(yùn)行。


    對于很多研究者而言,如果未來再也無需承受細(xì)胞染色的繁雜之苦,這樣一次性的投資是值得的。Finkbeiner說:“如果你可以拍攝未染色的細(xì)胞圖像,并且擁有已經(jīng)訓(xùn)練好的預(yù)測模型,那就意味著你基本上能免花費(fèi)獲得所有信息了?!?/p>

參考文獻(xiàn):

1. Ounkomol, C., Seshamani, S., Maleckar, M. M., Collman, F. & Johnson, G. R. Nature Meth. 15, 917–920 (2018). 

2. Christiansen, E. M. et al. Cell 173, 792–803 (2018). 

3. Kandel, M. E. et al. Nature Commun. 11, 6256 (2020). 

4. Nguyen, T. C. et al. J. Biomed. Opt. 25, 096009 (2020).

5. Wieslander, H., Gupta, A., Bergman, E., Hallstr?m, E. & Harrison, P. J. Preprint at bioRxiv https://doi.org/10.1101/2021.01.18.427121 (2021).


原文以AI spots cell structures that humans can’t標(biāo)題發(fā)表在2021年3月30日的《自然》的技術(shù)特寫版塊上 原文鏈接 https://mp.weixin.qq.com/s/YIr19hw-38skvWNpoY-bPg