米国の科学者が、全身が麻痺した患者が思考だけでコンピューターに文字を入力できる装置を開発した。患者は脳に移植したチップを通じ、健常者に近い速度と正確度で文字を入力した。思考をそのまま文字として入力する方法は、視線追跡システムのように麻痺患者が一般的に用いるコミュニケーション手段に比べ、より親しみやすく学習しやすい代替策となることが期待される。
マサチューセッツ総合病院ブリガム神経科学研究所とブラウン大学の共同研究チームは「麻痺患者が迅速かつ正確にコミュニケーションを回復できる『大脳皮質内ブレイン・コンピューター・インターフェース(iBCI)』タイピング装置を開発した」と17日、国際学術誌「ネイチャー・ニューロサイエンス」に発表した。BCIは脳から出る神経信号を検知し、コンピューターのような外部装置と情報をやり取りさせる技術である。言い換えれば、思考をコンピューターへ移し、音声や文字、あるいはロボットの機械動作に変換する方法である。
◇脳の運動信号を検知し、コンピューターが解読
今回の臨床試験には筋萎縮性側索硬化症(ALS、ルー・ゲーリッグ病)と脊髄損傷の患者2人が参加した。研究チームは麻痺患者2人の脳で指の運動を制御する運動皮質にチップを移植した。その後、2人はコンピューター画面に表示されたクオーティー(QWERTY)配列の標準キーボードを見ながら文字を入力する訓練を受けた。
キーボードには指も表示される。患者は画面を見ながら、頭の中でどのような指の形でどのキーを押すかを思考する。脳に移植したチップはこのとき発生する脳信号を検知してコンピューターへ送る。コンピューターは脳信号を解読し、キーボードを作動させて文字を入力した。脳信号の解読には人工知能(AI)が投入された。研究チームが用いたリカレント・ニューラル・ネットワーク(Recurrent Neural Network)は、順序をもつデータを処理することに特化したAIである。
実験の結果、末期ALS患者と脊髄損傷患者の両者とも、BCI装置で迅速かつ正確に意思疎通した。ある参加者は最大で毎分110文字(22語)のタイピング速度を記録し、語単位の誤り率は1.6%にとどまった。これは健常者と匹敵する水準である。患者はわずか30文だけでBCI装置を補正した。特に2人とも自宅で快適にBCI装置を使用し、将来的な商用化の可能性を立証した。
現在、麻痺患者は主に眼球の動きでコンピューターに文字を入力する。患者がコンピューター画面のどの文字を見ているかをカメラで視線追跡し、文字を入力する方式である。しかし、画面に文字を入力するのに時間がかかりすぎ、自然なコミュニケーションにならない。論文の責任著者であるダニエル・ルビン(Daniel Rubin)ハーバード医科大学教授は「BCIは麻痺患者のコミュニケーションに新たな代替策になる」と述べた。研究チームは今後、速記法や患者に合わせたキーボードを導入し、文字入力速度をさらに高めると明らかにした。
◇2004年から麻痺患者を対象に臨床試験
今回の臨床試験はブレインゲート(BrainGate)研究の一環として実施された。ブラウン大学の研究チームがバイオ企業サイバーキネティクス(Cyberkinetics)と共同で開発したBCI技術で、麻痺患者が思考だけで身体機能を回復できるよう支援するプロジェクトである。ブレインゲートの研究チームは米国退役軍人省(VA)の支援を受け、2004年から麻痺患者を対象に臨床試験を進めてきた。
論文の共同著者であるリー・ホックバーグ(Leigh Hochberg)ブラウン大学教授は「ブレインゲート・コンソーシアムはBCI技術の可能性を検証し、産業界が患者向けの植込み型医療機器の最終形を開発するうえで大いに貢献している」と述べた。ホックバーグ教授はブレインゲート臨床試験の責任者であり、マサチューセッツ総合病院ブリガム神経科学研究所の神経技術・神経回復センター所長である。
ブラウン大学はハーバード医科大学傘下のマサチューセッツ総合病院とともに2006年、国際学術誌「ネイチャー」にブレインゲート臨床試験の結果を初めて発表した。麻痺患者はBCI技術のおかげで、思考だけでコンピューター画面のカーソルを制御し、電子メールを開いたりテレビのような機器を操作した。
ブレインゲート研究チームは2012年、「ネイチャー」に、麻痺患者がBCI技術でロボットアームを制御して物をつかんだと発表した。脳卒中で倒れ、首から下を動かせず発話もできない58歳のキャシー・ハッチンソンさんは、BCI技術のおかげで思いどおりにロボットアームを動かし、コーヒーを飲むことに成功した。
参考資料
Nature Neuroscience(2026), DOI: https://doi.org/10.1038/s41593-026-02218-y
Nature(2012), DOI: https://doi.org/10.1038/nature11076
Natur(2006), DOI: https://doi.org/10.1038/nature04970