AIプランは現場の価値となりえるか

介護事業等を運営する複数社の出資により、AI(人工知能)でのケアプラン作成を目指す新会社が設立されました。次期基準・報酬改定年度となる来年4月からのサービス開始を目指すとしています。政府系ファンドも絡む中では、この「AIによるケアプラン作成」は近い将来、居宅介護支援の運営基準や報酬上の評価ともかかわってくると思われます。

AIが設定したルールを判断するのは誰か?

AI(人工知能)にはさまざまなレベルがあります。高度なものになれば、外部からの情報のパターンを学習したうえで、作業ルールを自らが設定することができます。ただし、「何が正しいか否か」という根本的な判断基準は、人の手によって最初に設定されます。

新会社のリリースによれば、本体の核となるAIは、「過去に介護サービスを受けた要介護者のケアプランを学習し、要介護者の自立促進や重度化予防につながるケアプランを生成」するとあります。つまり、「自立支援や重度化防止」に資することを判断基準として、それに合致したケアプランを学習しつつAI自らがルールを設定するしくみと思われます。

注意すべきは、ルールをAIが設定するとして、「そのルールが果たして正しいのか(その人にとっての自立促進・重度化防止の道筋にかなっているのか)」を当事者が判断できるのかという点でしょう。「結果的に自立促進や重度化防止が実現できればいいのだから、当事者判断は必要ない」というのなら、ちょっと違うのではないかと思わざるをえません。

尊厳の再獲得が目指すべき地点とするなら

介護保険法の総則には、その目的の中に「(当事者の)尊厳を保持」することが明記され、サービス給付に際しては「被保険者の選択に基づく」ことへの配慮がうたわれています。なぜなら、自立促進や重度化防止に向けた支えの一つとして、「そのサービスが自分らしさにつながっていく」ことへの実感があるかどうかという心理的因子が欠かせないからです。また、「この地でこの人と生きていく」という動機もサービスへの主体的なかかわりを左右します。その点では、環境や人間関係にかかる因子への配慮も不可欠となります。

これらへの回答は、本人の中だけにあり、他者がその深層に踏み込むことはほぼ不可能です。ですから、ケアマネとしては「私はあなたをこのように理解してこういうプランを作ったのですが、いかがでしょうか」というやり取りを丹念に繰り返すしか方法はありません。時には、そのやり取りの質こそが当事者のケアマネへの信頼感となり、「自分を理解してくれようとする人がいる」ことで安心や自信、その先にある自らの尊厳を再獲得するという道筋につながることもあります。

つまり、「どんな支援が必要なのか」について利用者と支援者がキャッチボールを繰り返しながら、一種の協働作業を重ねていくことがもっとも重要になるわけです。

利用者とケアマネの協働の実感は保てるか

仮にAIがケアプランを作り、それをもとに当事者とケアマネがやり取りをしたとします。その際に利用者と向き合うケアマネは、AIが設定した「ルール」を説明することができるのでしょうか。「あくまでたたき台ですから、ご要望などを加味していきます」などと説明しても、入口段階でAIのルールが介在するわけです。「入口がなぜそうなったのか」という説明が不十分であれば、利用者とケアマネの協働作業にぎくしゃくした空気が生じ、両者の信頼感に影を落とす可能性もあります。

尊厳の再獲得に必要となる「他者への信頼感」が揺らげば、本人の自立促進や重度化防止の壁ともなりかねません。これを防ぐには、利用者への情報公開や交渉の窓口を拡充しなければならず、それを現場のケアマネに任せるのなら、新時代に見合った人材育成とそれにともなう評価報酬の上積みが必要です。

奇しくも新会社のCEOは、「AIを使って何を目指していくのか、そこを誤れば最大のリスクになる」と述べています。この点を議論するなら、ぜひ現場のケアマネと利用者の代表を加えてもらいたいものです。現場でなければ分からない「協働作業の実感」を持ち続けることが、新技術を真の価値につなげていくためのカギとなるはずです。

コメント[13

コメントを見るには...

このページの先頭へ