Academic crowdfunding platform "academist"
JP | EN

Bring life-long robotic partners to realization for the elderly!

Satoshi NAKAGAWA

東京大学、2nd year doctoral course

Challenge period

2021-11-11 - 2023-03-31

Final progress report

Wed, 21 Dec 2022 13:03:20 +0900

Progresses

14 times

Supporters

5 people

Elapsed time

Thu, 11 Nov 2021 10:00:00 +0900

Profile

Satoshi NAKAGAWA

東京大学大学院情報理工学系研究科の博士後期課程に在学しています。愛地球博のトヨタ館でロボットを見た時の感動が忘れられず、いつしか自分がヒューマンロボットインタラクションの研究開発に関わる側となっていました。東京大学高齢社会総合研究機構や地域包括ケアのための未来型テクノロジー研究会などで獲得した学術的知識と、高齢者福祉施設での研修で培ってきた知識の双方を活かし、先端ICTを活用した見守りシステムの社会実装および福祉施設の開業を目標としています。

趣味は旅行、自転車、カメラ、天体観測、ガーデニング、花札。
研究と同じくらい趣味も真剣に取り組んでいるため、毎日忙しいですが楽しんでいます。

What do you want to achieve through your research?

コロナ禍では帰省することも難しくなり、親族の暮らしを把握するのが難しく心配する人も多いのではないでしょうか。そこで最近は見守りロボットを筆頭に、高齢者福祉にもICTが導入されています。しかし、未だそのようなシステムを作る技術者や情報系研究者と、実際の現場との間には隔たりがあります。例えばロボットが人と持続的な関係を築く言動生成ができないなどです。

そこで、福祉と情報科学を融合した新しい学問の道を切り開く必要があると考え、この分野に専念してきました。高齢者福祉では、支援対象者のQOL向上を重要とします。QOLは、身体的健康だけでなく、精神的、社会的well-beingをも含めて総合的に評価する指標です。

ロボットとの会話を通じてQOLを精度良く、負担も少なく測定できるシステムを作ります。ロボットと話す時は他者からの評価を気にせず済むため、より内面性の高い自己開示を引き出すことができ、高齢者の状態推定に適しています。さらに、推定結果を基にロボットが一人一人に合った言動をできるようにし、高齢者福祉におけるICT化の促進に貢献したいです。

What kind of process are you trying to achieve?

従来の質問紙や面接形式のQOL測定は高齢者に負担を強いるほか、上下関係を想起させるという問題を孕んでいます。本研究では、ロボットとの日常会話の中でQOLを測定するため、負荷や圧力を感じずに状態推定ができます。推定には、会話中の高齢者の表情、頭の動き、視線、音声、会話内容などを融合し、深層学習アーキテクチャを活用した統合処理を行います。この手法により、従来手法と比べて高精度のQOL推定を目指します。

さらに、推定したQOLを基に、ロボットの言動を高齢者一人一人に最適化していきます。QOLは心身状態などを包括するので、言動の個人最適化に適した指標だと考えます。また、良好なインタラクションでは自己開示が重要な要素であるため、高齢者に自己開示を促す言動を生成し、会話の質の向上を図ります。

従来、人とロボットの関係は画一的で飽きやすく、これが福祉のICT化を阻害する要因となっています。高精度なQOL測定による言動の個人化と自己開示の促進により、長く付き合えるパートナーとしてのロボット開発を目指します。今後は高齢者福祉施設でのフィールドワークを通じ、実用面での効果を検証する予定です。

What research topics are you currently working on?

QOL推定の精度向上とリアルタイム性の追求が現在のテーマです。精度向上のために、表情とQOLを紐付けたデータベースの構築や、被験者の発言から抽出されたキーワードを使ったQOL特化型辞書の作成をしてきました。今はこれらと、会話中の人の映像や声、発言内容とを組み合わせた推定システムを作り、精度の高い推定器の実現を目指しています。また、従来は予め録画した人間の映像からQOLを推定していましたが、新たなモデルによるリアルタイム推定の実現にも取り組んでいます。これが実現すれば、会話相手のQOLをその場で測定し、即座にその人に合った言動生成ができるようになります。

また、共感的な発言をするロボット開発に向け、「人はどのような発言に共感性を感じるか」を明らかにしたいと考えています。そのために、人同士やロボットを相手としたカウンセリング実験で会話のサンプルを集めました。このサンプルから、ユーザの発言、それに対するセラピストの反応、ユーザの感じる共感性の関係を明らかにしようとしています。これを明らかにすることで、深層学習モデルを使って、共感性の高い返答をする対話システムの実装が可能になります。

Why we need your support

クラウドファンディングを通じ、研究テーマを成就させるための活動をさらに幅広く展開したいと考えています。

本プロジェクトは、ロボットとの会話を通じた人の多元的かつ包括的な状態推定という新たな分野横断型テーマを掲げています。このプロジェクトを遂行するためには、高齢者福祉や情報理工だけでなく、心理学・教育学・社会学を含むあらゆる研究分野に通じる必要があり、また福祉機関とも連携していく必要があります。

皆様からのご支援は、さらに現場の声を聴くための福祉施設での実習費や、高齢者のwell-beingを扱う国内外の研究機関での研修費に活用したいと考えています。また、高齢者福祉研究を推進するためのワークショップの開催にも活用したいと考えています。そのほか、学会や勉強会にも積極的に参加し、多分野の研究者との連携を深めていきます。幅広い知見を得つつ、本研究の社会的、学術的意義を発信し、早期解決が要される世界規模の高齢化問題 について身近に感じてもらうことを目指します。

Project timeline

Date Plans
2021年10月〜12月 データ収集とQOL推定システムの構築
2022年1月〜3月 ロボットインタラクション設計
2022年3月 国際学会発表
2022年4月 国際学会発表
2022年4月〜8月 実地調査
2022年6月 国内学会発表
2022年8月〜 博士論文第一稿 提出

Pledge Rewards

330 JPY / Mo. tax included

Featured : Activity report viewing right

Activity report viewing right

Support

3 supporters back

(No quantity limit)

1,100 JPY / Mo. tax included

Featured : Activity report viewing right

Activity report viewing right

Support

1 supporter back

(No quantity limit)

3,300 JPY / Mo. tax included

Featured : Activity report viewing right

Activity report viewing right

Support

1 supporter back

(No quantity limit)

This project is a monthly fee-based crowdfunding. Payment will be made from the month of support to the end of every month.
About payment
Credit cards (VISA, Mastercard) are available
Securities
SSL encryption communication is used in this Web site, and the informations filled out are safely transmitted.
330 JPY (Monthly / tax included)
Activity report viewing right

3 supporters back

(No quantity limit)

Support

1,100 JPY (Monthly / tax included)
Activity report viewing right

1 supporter back

(No quantity limit)

Support

3,300 JPY (Monthly / tax included)
Activity report viewing right

1 supporter back

(No quantity limit)

Support

Featured projects
Copyright © academist, Inc. All rights Reserved.