機器人在大規模高通量獲取作物表型信息的應用上具有較大的潛力。自主導航技術(shù)是移動(dòng)機器人研究中的一項重要內容,但農業(yè)場(chǎng)景的非結構化特征給該項技術(shù)的研究帶來(lái)了巨大挑戰,且在表型采集場(chǎng)景中機器人還面臨著(zhù)場(chǎng)景變化大、高頻高重復性工作等具體問(wèn)題。目前鮮有針對表型檢測機器人導航方法的研究。
華中農業(yè)大學(xué)作物表型團隊在Journal of Field Robotics在上發(fā)表了 題為''Autonomous navigation method based on RGB-D camera for a crop phenotyping robot''的論文。
該研究提出了一種基于RGB-D相機的作物表型機器人自主導航方法,該方法建立了田間和盆栽?xún)煞N場(chǎng)景下多種作物圖像的導航數據集,采用實(shí)時(shí)性與準確性均衡的語(yǔ)義分割模型對作物區域進(jìn)行分割,結合該區域深度信息,在真實(shí)世界坐標系下提取導航線(xiàn)并獲得導航參數,再根據兩個(gè)單輸入輸出模糊控制器對機器人實(shí)施糾偏控制。除此之外,該方法根據識別區域內作物的平均高度和區域內目標的存在性判別機器人是否到達行末,最終根據行走時(shí)所測得的行距,控制機器人在末尾自動(dòng)換行。
研究人員針對該方法進(jìn)行了大量可行性實(shí)驗。實(shí)驗結果表明,機器人的導航平均行走偏差為1.33cm,最大為3.82cm。此外,行間距測量的平均誤差為2.71cm,而掉頭換行的成功率為100%。該方法具有較高的準確性及實(shí)用性,可以為表型機器人在戶(hù)外農業(yè)環(huán)境的無(wú)人化作業(yè)提供有效支持。
文章鏈接:https://doi.org/10.1002/rob.22379
華中農業(yè)大學(xué)作物表型團隊黃成龍教授和團隊博士生楊蒙為論文共同第一作者,宋鵬副教授為本文通訊作者。本研究得到了國家重點(diǎn)研發(fā)計劃項目(2022YFD2002304)、國家自然科學(xué)基金項目(U21A20205)、湖北省自然科學(xué)基金重點(diǎn)項目(2021CFA059)等項目的資助。