暗い夜、走行中の車の前に突然人が現れる。ドライブレコーダー映像で事故の瞬間を見せる番組の常連の場面である。先端コンピューターシステムを備えた自動運転車でも到底防げない事故だが、今後は変わる可能性がある。人が動く物体を感知する原理を模倣し、これまでよりはるかに速く障害物を回避する技術が開発された。
ガオ・シュオ中国ベイハン大学教授の研究チームは「神経を模倣したニューロモーフィックチップで、動く物体を従来のコンピューター視覚システムより4倍も速く捕捉することに成功した」と11日、国際学術誌「ネイチャー・コミュニケーションズ」に明らかにした。自動運転車や無人機(ドローン)、ロボットがこのチップを搭載すれば、急変する環境でも安全に作動できると期待される。
◇動く物体を感知する神経の原理を模倣
自動運転車やドローンは、人の目に相当するコンピューター視覚システムを備える。カメラが撮影した映像から動く物体を見つけ、どこへ動くかを推定する。まさに映像内の物体の動くパターンであるオプティカルフロー(optical flow)を感知する過程である。
問題は、オプティカルフローを処理するにはコンピューターソフトウェアが計算すべき情報量が急増する点である。映像フレームごとにすべてのピクセル(画素)を処理しなければならないからだ。自動運転車も時速80㎞で走れば前方の危険に反応するのに0.5秒かかる。車両が完全に停止するまで約13mをさらに進む時間である。
人工システムが家庭や道路、手術室で安全に作動するには視覚能力をアップグレードする必要がある。研究チームはソフトウェアを改良する代わりに、人の視覚原理を模倣したハードウェアを開発して問題を解決した。人の脳は目の前の危険に0.15秒で反応できる。
脳が先端コンピューターよりも物体の動きに速く反応するのは、情報処理における取捨選択と集中の原理で作動するおかげである。コンピューターはカメラが撮影した映像情報をすべて処理するが、脳は目に見えるものを全て感知するわけではない。網膜から送られた視覚情報は脳で感覚情報を集約する視床に向かう。ここで外側膝状核という部分が、動きのある関心領域に関する信号だけを大脳に伝達する。その分だけ視覚信号の処理が速くなり、飛んでくるボールを容易につかみ、避けることができる。
研究チームは神経細胞(シナプス)のように情報を記憶し処理するニューロモーフィックチップであるシナプティックトランジスタを開発した。このチップは全体映像をメインコンピューターに送る代わりに、場面の核心的変化を識別する。どこかが時間とともに明るさが変わるなら、物体が動く関心領域とみなす。コンピューターは全体画像ではなくこの関心領域だけを見ればよいため、視覚システム全体がより速く作動する。雑踏の中で友人の動きだけを追うのと似ている。
◇自動運転車・ドローン・ロボットで効能を実証
視覚情報を処理するニューロモーフィックチップは速度が速い。画像の変化を1万分の1秒で感知し、自動運転車やドローンの安全性を画期的に高めると期待される。特に関心領域だけを計算するため消費電力も少ない。その分だけバッテリーを長く使える。
研究チームは、ニューロモーフィックチップを備えると従来のコンピューター視覚システムより映像処理速度が平均400%速くなったと明らかにした。反応速度が4倍に増加したということだ。研究チームはニューロモーフィックチップを搭載した視覚システムを多様な実環境で有効性を検証した。
例えばある実験では、自動運転車が歩行者を感知し動きを予測して反応する時間が0.23秒から0.035秒に短縮された。時速80㎞で0.2秒短縮された反応時間は、制動距離を4.4m縮めることができる。速度だけでなく精度も高まった。自動運転車の運行シナリオで精度が2倍以上(213.5%)向上した。
ドローンも同じ方法で空中で障害物を感知し、回避した。ロボットハンドは物体が動いてもどのように掴むべきかを即座に把握した。高速で動く物体を掴む成功率が740.9%まで向上した。ニューロモーフィックチップを使えば、ピンポン球のように速く動く小さな物体も捕捉でき、スポーツ界でも活用度が高いと研究チームは述べた。
今回の研究には、中国の清華大学と北京工業大学、香港大学、英国ケンブリッジ大学、米国ノースイースタン大学、サウジアラビアのキングアブドラ科学技術大学の研究者も参加した。研究チームは今後、実験室環境から離れ、自動運転車と産業用ロボットに使えるチップを大規模に開発する計画だ。
ガオ教授は「リアルタイムの映像処理が可能になれば、自律システムが衝突回避や物体追跡のような複雑な作業を効率的に遂行できる」と述べ、「商用化に向けて、より多様な環境で今回の視覚システムを評価する研究が必要だ」と明らかにした。
参考資料
Nature Communications(2026)、DOI: https://doi.org/10.1038/s41467-026-68659-y