開催報告(第142回)

ロボットと人工知能で、動物の心を読む

講師:木村 幸太郎 氏(名古屋市立大学大学院システム自然科学研究科・教授 / 専門:神経科学、分子遺伝学、光生理学(イメージング))
日時 : 2019年5月17日(金)
会場 : 7th Cafe (中区栄・ナディアパーク7階)

小型カメラやGPSなどを用いることで、人や動物の行動を簡単に記録することができるようになってきました。しかし、行動の「記録」はできても、その記録から人や動物の「心」を理解することは未だに困難です。これは、発展している人工知能や神経科学の分野でも大きな問題になりつつあります。今回のサイエンスカフェでは、ロボット技術や人工知能技術を用いることで、動物の行動パターンからその「心」を読み取ろうとする私たちのプロジェクト(文部科学省新学術領域研究「生物移動情報学」 http://navi-science.org/)を紹介しました。

例えば、動物(鳥や魚や昆虫を含みます)が「渡り」として数千キロメートルにもおよぶ長距離を移動することは昔から知られています。しかし、何の目印も無い海や森林や砂漠において、どのようにすれば正しい方向に進むことができるのでしょうか?(目印がある街中でも私たちはすぐ道に迷いますし、海で遠くまで泳いで周りの陸地が見えなくなってしまえば、途方に暮れるしかありません。) 「動物には不思議な能力があって、地磁気などを感ずることができるから大丈夫?」 いえいえ、地磁気など地球規模の位置情報から自分の位置を数メートル単位で正しく知ろうとすれば、その位置情報の数千万分の一の違いを正確に理解できなければなりません。動物達は、我々人間ができないような正確な仕組みを本当に持っているのでしょうか?もしそのような仕組みを持っているのであるとすれば、それはどのように実現されているのでしょうか?

私たちのプロジェクトでは、まず移動する動物の位置とその時の周囲の状況が分かるような装置を作りました。現在この装置は、GPS、加速度計、気圧計、水圧計、照度計など多様なセンサーに加えてビデオカメラ機能と小型コンピュータ機能を持っています。ビデオカメラを動物に取り付けること自体は既に行われているのですが、ビデオは電池の消耗が激しいのですぐに録画が終わってしまいます。私たちの装置では、装置に搭載された幾つもの機能を融合させることで、「海鳥が餌を食べている動きのパターンをしている時にだけビデオカメラ機能をONにする」という事が可能になりました。「餌を食べている動きのパターン」を知るためには、最近非常に話題になっている人工知能技術が使われました。また、「周囲の状況を感知・分析して、複数の選択肢の中から適切なものを選んで行う」という自律的な装置は「ロボット」ですので、私たちはこの装置のことを「ログ(データの記録)を取るロボット」=「ログボット」と呼んでいます。このログボットのお陰で、海鳥が海中や海上で魚や昆虫を食べるという決定的な瞬間をビデオ画像に記録することができました。私たちのプロジェクトでは、このような研究活動を発展させ、さらに神経科学的な「脳での神経細胞の活動記録」などを組み合わせることによって、動物の「心」を理解したいと考えています。

今回から会場のレイアウトが変わったことは、大変好評でした。そのためもあってか、会場の皆さまには非常に熱心にご参加頂き、また活発なご質問を頂きました。この場を借りて深くお礼申し上げます。


木村 幸太郎(名古屋市立大学大学院システム自然科学研究科)

[戻る]