がんと向き合い生きていく

チャットGPTの医療への応用は慎重にも慎重であって欲しい

佐々木常雄氏
佐々木常雄氏(C)日刊ゲンダイ

 対話型AI(人工知能)「チャットGPT」が、ここのところ急に話題になっています。ある知人の話では、たとえば大臣の国会答弁をまずチャットGPTに書かせ、それを担当者が書き直すことで、国会答弁前夜の作業がスムーズに進むといいます。しかし、どう考えても、大臣の答弁がチャットGPTが作ったものだとは思いたくない気もするのです。

 便利だからといって、自分で考えて自分で文章を作るのではなく、先にチャットGPTに書かせ、それを読んで自分の文章として作っていく……本当にそれでよいのだろうか? これからそんな時代になってくるのだろうか?

 子供の教育では、AIを使って先に答えを聞いてしまうと、自分で考えることが少なくなるのではないか? 想像力を損なうのではないだろうか? これは私の余計な心配なのかもしれません。

 文科省は、チャットGPTを「夏休みの課題では使用しないように」とのガイドラインを通知したといいます。生成AIが作ったものを“成果”として提出することは適切ではないとして、十分指導するように促しているというのです。

 医師の診療においても、AIをどこまで利用し、利用しないのか、よく考えなければならない時代になってきたように思います。AIの利用によって、経験の深い医師と同じレベルの、精度の高い医療が実施できるようになるのかもしれません。しかし、ある面ではまったく違っていることもありうるのです。

■医師が自分で考えなくなる恐れ

 たとえば、内視鏡検査では、カメラを操作するのは医師です。検査中に少し広い隆起がある箇所を見つけた場合、AIは「生検の指示」をしてくれます。それによって、診断がより正確になる、見落としが減る、熟練した医師の目の代わりになってくれるかもしれません。

 見つけた隆起のどこを生検するのかは、医師のスキルや手技にも関係してきます。それが、AIに頼り切ってしまうようなことにならないか、私は心配になります。なぜ、AIが生検を指示したのか、検査医がそこを考えなくなることはないのでしょうか? 相手は機械です。まったくの間違いなのかもしれないのです。

 検査医がAIの指示通りに従い、自分が見ている場所が本当にがんなのかどうかも考えなくなるのではないか、やはり心配なのです。医師のスキルアップはどうしても必要です。機械であるAIが責任を持ってくれるわけはないのです。人は先に答えを見てしまうと深く考えなくなるのではないか、と危惧するのは愚考でしょうか?

 AIの情報が必ずしも信頼できるものではないことが一番の問題だと思います。標準的な治療ガイドラインで、同じがん、同じステージでも、個々の患者によって選択肢が違うことはたくさんあります。それぞれの患者の、置かれたいろいろな状況で違ってくる場合もあるのです。

 人間は、安易な方向に行きたがることがあるので、AIの進歩によって物事を深く考えることが少なくなるのではないでしょうか。さらに、「心」の問題にはどう関わってくるのでしょう?

 チャットGPTが書く小説はどうなのだろうか。何か、ますます機械に支配され、人間の個性を失っていくような気がしてしまうのです。

 考えて考えてつくられたであろうチャットGPTについて、「面白い」「冷静に情報を見て、自分との間隔を空けて考えた方がいい」との意見も聞きます。これからさらにバージョンアップして、人間社会ではどのような存在になっていくのでしょうか。歴史的に見れば、チャットGPTは大きな産業革命となるのでしょうが、個人情報などの問題もあり、医療への応用は慎重にも慎重であって欲しいと思います。

「医療AIプラットフォーム技術研究組合」という組織が出来ています。また、「日本医師会AIホスピタル推進センター」も設置されました。医療のより安心・安全な提供に、たくさん議論していただきたいと思います。

佐々木常雄

佐々木常雄

東京都立駒込病院名誉院長。専門はがん化学療法・腫瘍内科学。1945年、山形県天童市生まれ。弘前大学医学部卒。青森県立中央病院から国立がんセンター(当時)を経て、75年から都立駒込病院化学療法科に勤務。08年から12年まで同院長。がん専門医として、2万人以上に抗がん剤治療を行い、2000人以上の最期をみとってきた。日本癌治療学会名誉会員、日本胃癌学会特別会員、癌と化学療法編集顧問などを務める。

関連記事