本日は「ChatGPTによって精神科医は職を失うのか」というテーマでお話しします。
こういう話をすると、「いやいや失わないよ」「私はAIよりも人間に話を聞いてもらいたい」「それが人間の美しさじゃないか、素晴らしさじゃないか」と色々なことを言う人がいて、そもそもこの話には意味がないんじゃないかという形で崩されてしまうんですけれども、僕が今回話そうとしているのはそういう話とも違います。
職を失うのかと言って本当になくなるとはもちろん思っていないんですけれども、やはりChatGPTの出現によって、いよいよ自分たちが認めなきゃいけないなということがあるので、それをお話しします。
コンテンツ
心は理解困難
いよいよ認めなきゃいけないなというのは何かというと、心はとても複雑で説明困難なものなんだ、ということです。
理解困難なものなんだということが、いよいよ突きつけられてしまったなという気がします。
それはわかっていたんです、そもそも。
僕自身は脳科学や精神のことなど色々なことに興味があったんです。
研究者というよりは臨床家を目指したのはなぜかというと、研究をしても良いデータは出ないだろうなと思ったからでもあるんです。
研究しても、脳の一部はわかるかもしれないけれども、何て言うんだろう、一部のことはわかるけれども、僕が生きている間には説明がつかないことが多すぎるんじゃないかと思っていたので、臨床家という道を選んだんです。
臨床をやっていけば色々なことがわかるんじゃないかとは思っていて、確かに臨床をやっていれば色々なことがわかるんです。
俯瞰的に見えることが増えましたし、耳学問というか、色々なことを知っているんですけど、それでもやはり心という複雑なものを完璧には理解していないし、社会というものも理解しているとは言いがたいです。
振る舞いだって、今自分がどういう風に振る舞うべきなのか、相手からどう見えるから今自分の最適な行動、コメントは何なのかということさえわかっていないんです。
わからない、難しすぎてね。
それは臨床の話ですけど、実際、心理学や脳科学、臨床的なものというのは実験データをとっても再現性に失敗しているんです。
認知心理学とか認知科学とかの領域はあまり良いデータは出てなかったりします。
脳の画像研究も結構論文にはなっているけれども…、みたいなことが多いです。
DaiGoがやってる心理学とか呼ばれているものは大体嘘です。
あれは再現性が絶対に出ないやつなんです。
そういう形で「こういう人はこうである」みたいなことが単純化できるようなものは、だいたい嘘っぱちということがわかっている。
科学としては不十分だったりします。
それはもう僕らがわかっていたんだけれども、今回ChatGPTの出現で何が分かったかというと、何と言うのかな、やはりいよいよそうだな、という感じがしました。
強化学習×データ→知性?
ChatGPTは「強化学習」という形で大量のデータを読み込ませて、人間じゃわからないぐらいの計算をさせるということなんです。
そうすると人間の知性のように振る舞うんです。
元々この強化学習、ニューラルネットワークと呼ばれているものは、人間の脳をモデルに作られて始まったんです。
だけど人間の脳とは別の働きをして、でも人間がやって欲しいこと、知性のように振る舞うことができるようになってきたということなんです。
要約をする、何かを説明する、そういうことができるようになってきた。
これらを見ると、パラメーターが膨大なんです。
変数が膨大にあってそれらを理解するのはとても困難なんです。
人間の知性や人間の心、人間と人間が生み出す社会と呼ばれているものは、ChatGPTよりもはるかに複雑なものですから、より膨大なパラメーターが存在しているということがわかるので、シンプルなモデルで説明することはできないということがわかってしまうという感じです。
再現性を失敗しているということでも証明できたし、考えてみればChatGPTだって膨大なパラメーターがあってシンプルに説明できないわけだから、それは人間の心だとましてわからないよね、という感じです。
そういうことがいよいよ突きつけられて、ChatGPTを触るたびに自分の無力感というか、虚しさというか、寂しさが突きつけられてしまうな、と思ったりしていました。
このパラメーターはどんどん膨大になっていくんです。
今よりも明日、明日より来年、今年よりは1年後、2年後、10年後と、より複雑なAIはできてくると思います。
どんどん複雑なプログラミングをもったAIを作ろうとすると、人間の力で作れなくなってくるんです。
ソフトウェア2.0と言うんですけれども、AIにプログラミングを書かせなきゃいけなくなっちゃうんです。
人間がやることは、データを持ってくることだったり、AIの補助みたいになって、プログラミングを書くのはAIがやるみたいな形で、パラメーターの調整もAIがするみたいな形になってきて、データを取ってくるのが人間の仕事になるんじゃないかというのがあるんですけど、いよいよそういうのも見えてきたなという感じがします。
そういう風に思うと、そうなんだなあと最近しみじみ思います。
科学は道具?
でも多くの人はそんなにショックは受けないんじゃないかなと思います。
というのは、そもそも科学というのは説明をするためにある、自然現象を説明するために科学はあるんだ、分たちが生きている世界を知るために科学はあるんだという人たちもいるんだけれども、一方で科学というのは道具なんだと、だからより生活を豊かにするためにあればいいと思っている人たちもいるんです。
多くの人は後者だと思うんです。
説明ができるんじゃなくて、利用できればいい。
細かい理屈はわからなくても、利用できたらいいと思っている。
それが科学なんだと思っている人たちもいて、人間の心というものがわからなくても上手く生きられればいい、心が安定していればいいということです。
だから説明はできなくても、予測できればいいということになっていくのかもしれないです。
これは物理の現象もそうで、物理学も何故こうなるのかというのはわからないけれども予測ができればいい、つまり星がどこに行くのかが計算できればいい、飛行機がどう飛ぶのかを計算して予測できればいいということと似ていて、心という現象がわからなくても、AIが人間のように振る舞って人間が考えることを先に考えてくれるなら、それでもいいみたいな風に思う人も多いんじゃないかなという気がします。
鳥になりたかったわけではない
そもそもたぶん人間は、原始時代は鳥に興味があったと思うんです。
どうして空を飛べるんだろう、どうやったら空を飛べるんだろう。
だけど今は鳥に興味がある人は少ないと思うんです。
それは人類が飛行機というものを手にしたからなんです。
はるかに速くて、はるかに自分の体力を使わずに、鳥のように飛ばなくても座っているだけで飛んで行ってくれますから、そういうものを手に入れた途端、関心を失ったと思うんです。
だから飛ぶことが目的だったわけで、鳥になりたかったわけじゃない。多くの人にとっては。
メンタルというのも同じなんだろうなと考えると、何か寂しくなっちゃうみたいな感じはあります。
GPTを触れたりとかそういうことをしているたびに、自分の中のナイーブなところが刺激されて、寂しくなっちゃうというのはあります。
でももちろん自分なんかよりもっとショックを受けている人は多いと思います。
心理学をしっかりやっている人や研究者の方がショックを受けているかもしれない。
逆にそうだろうと思って自分の学問を一生懸命やっているかもしれないし、全体的なゴールよりも、今の目の前の実験や細かい法則に興味を持てているのかもしれないですけど、そんなことをちょっと考えてしまいました。
治療モデル?
臨床においては僕らは治療モデルというのを作るんです。
転移解釈をすれば良くなるというのは精神分析の考え方だし、認知行動療法という形で、人間にはこういうメカニズムがあって、こういう認知の仕方をするから、こういう認知の歪みを直せば治療ができるというモデルというのもあるだろうし、前頭葉の機能が弱いから前頭葉をトレーニングするのが良いとか色々あるとは思うんです。
シンプルなモデルでは説明ができないということと同様に、治療モデルというのもおそらくは正しくはないモデルなんだということが、当たり前といえば当たり前なんですがわかっちゃうんです。導き出せちゃう。
薬物選択は別にいいんですよ、いいというか、どの薬を選ぶかというだけの限定的なものであればモデルが効くけれど、もうちょっと対話の治療ということを考えていくと、何をモデルにしていけばいいのか、というのは本当にわかりにくくなるなと思います。
言葉で治していくというのは、どういう風なモデルを使うべきなのか、どういう再現、どういうことが目標になるのかというと、いよいよ本当にわからなくなってくるなという気はします。
既存の科学的な手法だと再現性も失敗しているし、エビデンスも出てると言っても、たぶんもう一回追加試験をすると出にくくなるような手法だったりしますから、難しいなという気はします。
僕らが臨床をやってるとわかるんです。
色々な過去の先生の論文や研修を見ていると、なるほどなと思いつつも、自分の臨床にはそのまま持ってこれないということはわかるんです。
今までとやり方はそんなに変わってないんですけど、でも何か上手く言えないです。
いよいよ本当に何か自分で考えていかなきゃいけないなと思ったり、妄信はできないなという感じもする。
一方で妄信している人たちを批判していかなきゃいけない立場になる。
それは次の世代の若い人たちを批判しなきゃいけないのか、それとも昔の世代なのかわからないですけど、いよいよそうだなという感じがしました。
臨床は結局その人その人によってもちろんやり方は違うし、相性という言葉で誤魔化すのはあまり好きではないのですが、まあでもそうなんだよね。
その人その人によってやり方を変えなきゃいけないし、ゴール設定も変えなきゃいけないし、考え方も変えていかなきゃいけないし、結局過去の人たちはどういう心構えで、どういう体験をしたから、こういう答えを出したのか、こういう哲学的な理解というか腑に落ちるという体験をしたのかということを、過去のものを読んで追体験しながら自分の中に応用していくやり方をしなきゃいけないんです。
でもそこの部分が難しいなと思ったりしました。
結局何なのか
じゃあ結局何なのかというと、科学的な知識を身につけていくとか、色々な自分の中にある記憶や感情を整理していくということだったり、道徳的なことを学ぶ、人権、尊厳、最近よく言いますけど、そういうことも学んでいくということなんでしょうね、と思ったりしています。
感情や安心、信頼、そういう気持ちを共有していくということが動機づけになっていくということなのかなと思います。
こういう話をすると、おそらくコメント欄には、やっぱり共感が大事なんだよね、感情を理解してくれることが大事なんだよね、というコメントも出てくると思うんです。
だけど実際はそれだけだったら上手く行かなくて、むしろ発達障害の治療だと心とか気持ちに焦点を当てるのではなくて、もうちょっと具体的な生活スキルに焦点を当てた方が治療成績は良いということもわかってますから、何て言うのかな、一概にはそうは言えないんですけど。
でも発達障害じゃない人にとっては、ソーシャルスキルよりも気持ちに焦点を当てたほうがいいこともあるし、色々なパターンがありますけど。
でも自助会やピアサポートという形はやはり ました。
僕らが経験していないこと、心や社会は複雑なので、僕ら医師とか専門家にはどうしても見えない部分や理解できない部分があるということです。
そこにアプローチできるのはまた別の誰かかもしれなくて、そして同じ当事者の可能性も結構高いんじゃないかなと思います。
自助会をちゃんとやるというのは大事だなと思いますし、そこのノウハウを溜めていくということも大事だろうし、支援者たちが潰れないようにする、欲望に負けない、そういうことも含めて、しっかり育成していくことを考えていかなきゃいけないんだなと思ったという感じです。
大変だなと思いました。
もっとシンプルなモデルで説明ができるんだということを言えれば、このモデルを説明していけば良かったんです。
「この何とか療法というものが大事だから、これをみんな勉強しようね」という形で良かったんだけれども、バイブルというものが存在できるということがわかってたんだけれども、バイブルは作ることもできなければ再現することもできないし、もっと複雑なものを悩みながら、その都度その都度やっていかなきゃいけない。育成方法もその人に合わせた育成方法にしなきゃいけないということがわかってしまった、そういう話です。
そして頑張っても、それがストックされるというよりはフローなものということもわかっちゃったというか、という世界です。
上手く説明できたかどうかわからないですけど、まあとりあえず雑談という形で、ちょっと自分の気持ちを喋りました。
精神医学
2023.3.31