京都新聞の記事によると、脳の活動パターンを人工知能モデルの信号変換する事で、
人が見たり、想像したりしている物体を推定事を、京都大情報学研究科や
国際電気通信基礎技術研究所の研究グループが成功した。
心を解読する技術の大きな前進で、英科学誌に22日発表されました。
研究グループは、機能的磁気共鳴画像装置を使って人の脳の活動パターンを計測し、
予め記録しておいたパターンと参照するやり方で、何を見たかを推定する事に成功。
ただし、記録されたパターンに対応する物体しか推定できないという限界がありました。
今回の手法では、機能的磁気共鳴画像装置で計測した脳の活動パターンを、
人工知能で応用されている深層学習モデルの信号に変換した上で利用。
5人が「カモ」や「シルクハット」などを見たり想像した際の脳由来の深層学習モデル信号を、
インターネット上にある大規模画像データベースから
予め深層学習で処理し得た信号と参照する事で物体を高確率で推定できました。
脳と深層学習モデルの情報処理が似ている事も示され、
脳と機械を融合した新たな知能システムの開発にもつながる、
と記事は結びます。
脳の中身がハードディスクやメモリーカードに保存できるかもしれません。
究極、センサーや操作系も全て脳に直結可能な訳で、
機械と人間の融合も可能になる。
ひいてはサイボーグと、大きな可能性を秘めた発見かもしれませんね。
ログインしてコメントを確認・投稿する