先日、巷で話題になっているChatGPTについての講演を企業の方々を対象に行いました。
大学には自然言語処理の分野での研究を行っている研究室がいくつかありますが、自然言語処理や生成形AI、高齢者福祉の全てに関連した研究をしている研究者として、私が引き受けることとなりました。
生成系AIというのは、新しいコンテンツを作り上げるシステムのことを言い、ChatGPTもその1つです。
無料で活用することができるChatGPTですが、すでにそれに関する論文が多く書かれており、最新の情報に追いつくのに必死です。
記事やSNSアカウントでもChatGPTの使い方やコツなども紹介されており、自分も勉強の毎日です。
日本は比較的ChatGPTに対して寛容な姿勢で、日本ユーザは世界で3位と、かなり多い方です。国会答弁などの行政分野への活用が検討されたりもしています。
東京大学でも、「生成系AIツールの利用を一律に禁止することはせず、その活用の可能性を積極的に探るとともに、活用上の実践的な注意を発信していきます。」との声明を出しています。
これらのことから、国内ではChatGPTを規制するよりも、むしろ利活用方法の探究に重点を置いている印象を受けます。
その一方で、先日、個人情報保護委員会が意見書を提出したり、欧州では機密情報の流出に対する懸念を示して規制するなど、慎重さを求める姿勢があるのも事実です。
ChatGPTなどのAI技術とうまく付き合ったり、付き合う方法を模索するためには、まずは知ることから始めるべきだと考えます。そのため、講演ではChatGPTの使い方だけでなく、その開発経緯や課題点、注意点なども解説しました。
ChatGPTの問題点の1つに情報の不正確性があります。ある程度、人の力を借りて有害なデータ(差別など)は排除された状態で学習されてはいますが、それでもやはり誤った情報を提示することがあります。差別的な情報を排除したのは、Tayの暴走問題を再び起こさないためのものだと考えています。
Tayは2016年にマイクロソフトが公開した対話型AIです。AIが動かすTwitterのアカウントが多くの人と対話し、その人間と区別のつかない話し方から大きな注目を浴びました。しかし一部のユーザにより反社会的な情報を教え込まれたことが原因で、倫理的に問題のあることを言うようになってしまい、公開からー時間でアカウントが閉じられてしまいました。この惨劇を繰り返さないためにも、ChatGPTでは余分なデータを削除したものと思われます。
また、ChatGPTのもう一つの課題は、もっともらしい返答をする一方でそのソースが不明なところです。ですが、これを解決したものとして、マイクロソフトが出しているBing AIがあります。これは、リアルタイムでデータを収集していて情報が新しいだけでなく、返答を生成する時にどの記事やサイトを参照したのかも表示してくれます。こちらも誰でも使えるものなので、興味がある方は試してみてください。
たしかに生成系AIは便利であらゆるタスクの効率化を実現させますが、それでも最終的には人による意思決定が必要だと考えています。AIによる判断と人による判断の食い違いによる事件・事故の例の一つに中華航空140便事故があります。これは機首を上げようとしたAIと機首を下げようとしたパイロットの判断の食い違いが原因とされています。どちらの意見を優先するかを考える前にAIに完全に頼り切った先には、衝突や問題が再び起こることが考えられます。そのため、AIの限界を把握した上で、AIはあくまで支援AIとして活用していくべきだと考えています。
0人が支援しています。
(数量制限なし)
0人が支援しています。
(数量制限なし)
0人が支援しています。
(数量制限なし)