AIに頼っていると脳がおバカになってしまうよ!

人間は根本的に怠惰な生き物なのか?それとも探求心旺盛な生き物なのか?探求心により生み出されたAIに飲み込まれてしまうのか?

ChatGPTなどのLLM(Large Language Model:大規模言語モデル)のAIを日常に使っている人や企業もあるでしょう。自分の認知を外部委託するかのように、何でもAIに頼ってしまうと、人間の知能はどうなるのでしょうか?

今回の研究では、そんなLLMのAIを使って、エッセイを書くという教育的な状況に対する影響を分析しています。(プレプリントなので注意が必要です。内容が膨大なので全部はちゃんと読めません)

対象は18歳から39歳(平均年齢22.9歳)の54人で以下の5つの大学から参加しました:MIT(女性14名、男性5名)、ウェルズリー(女性18名)、ハーバード(N/A 1名、男性7名、ノンバイナリー2名←ハーバードらしい!)、タフツ(男性5名)、ノースイースタン(男性2名)

そして、参加者は3つのグループに分かれます。グループ1:LLMグループの参加者は、エッセイを書くという課題の唯一の情報源としてOpenAIのGPT-4oを使用することに制限されました。他のブラウザやアプリの使用は許可されませんでした。

グループ2:検索エンジングループの参加者は、エッセイを書く課題を支援するために任意のウェブサイトを使用できましたが、ChatGPTやその他のLLMは禁止されました。すべての参加者はGoogleをブラウザとして使用しました。

グループ3:脳のみのグループの参加者は、LLMとオンラインウェブサイトの両方を使用することを禁止されました。

そして、各参加者に対して同じグループ課題で3回のセッションを実施しました。4回目のセッションでは、LLMグループの参加者にはツールを使用しないように依頼し(LLM-to-Brainと呼ぶ)、脳のみのグループの参加者にはLLMを使用するように依頼しました(Brain-to-LLM)。脳波記録 (EEG) を使用して参加者の脳活動を記録しました。

EEG分析により、LLMグループ、検索エンジン グループ、および脳のみのグループは、有意に異なる神経接続パターンを示しました。脳の接続性は、外部サポートの量とともに系統的に縮小しました。脳のみのグループは最も強力で広範囲にわたるネットワークを示し、検索エンジングループは中程度の関与を示し、LLMグループは全体的に最も弱い接続を引き起こしました。

脳のみグループは、測定されたすべての周波数帯域にわたってより強い神経接続をもたらし、特にシータ帯域と高アルファ帯域で大きな増加が見られました。前頭から後頭方向を中心としたシータ帯域の接続の増加は、認知負荷と実行制御の増加を示すことが多いそうです。同時に、脳のみグループは前頭頭頂葉ネットワークで高アルファ帯域の接続の強化を示し、外部からの支援なしでの創造的発想に必要な内的集中と意味記憶の検索を反映しているそうです。LLMグループは神経接続が79から42に大きく低下しました。最大55%減少するようです。

LLMグループは確かに書き込みに脳ネットワークを動員しましたが、LLMの存在は神経伝達の強度と範囲を弱めたようです。LLMグループで前頭シータ接続が有意に低く、おそらくAIが外部認知サポート(例:テキストの提案、情報や構造の提供)を提供したため、作業記憶と実行要求が軽かったことを示している可能性があります。脳はエッセイの執筆計画を維持するためにシータ波で広範囲に同期する必要がなくなったと思われます。LLMグループのベータ波接続の低下は、持続的な集中力と覚醒度がやや低下していることを示しており、執筆中の努力の低下と一致する可能性があります。

セッション4では、LLM-to-Brainの参加者は神経接続が弱く、、Brain-to-LLMの参加者は記憶想起力が高く、後頭頭頂葉および前頭前野の広範な接続が再関与しており、検索エンジングループでよく見られるものと同様の視覚処理をサポートしている可能性が高いことが示された。

LLM-to-Brainの参加者はAIツールを頻繁に使用したため、資料へのより深い関与を回避し、ブレインストーミングや問題解決などのタスクで「スキルの萎縮」につながったのでしょう。つまり、セッション4のLLM-to-Brainの参加者は、AI サポートに慣れてしまっていたため、文章作成の分析的側面と生成的側面に対する認知能力を十分に活用していなかった可能性があります。AIを使用した後の執筆においてアルファネットワークとベータネットワークが十分に機能していないことは、参加者が独自の構成戦略を考えることを省略した場合、これらの脳回路がそれほど強化されない可能性があることを示唆している可能性があります。そのため、参加者が単独で課題に取り組んだ場合、これらの側面でパフォーマンスが低下する可能性があります。

逆に、AIを使用しないエッセイを3回書いた後、セッション4に入ったBrain-to-LLMの参加者は、すべての周波数帯域において、LLMグループのセッション 1、2、3 よりも高い指向性接続性を示しました。AI支援の追加により、ネットワーク全体でアルファ、ベータ、シータ、デルタ帯域の指向性接続が急増しました。これは、以前にAIを使用しないで書いた後に、AIを使用してエッセイを書き直すことで、より広範な脳ネットワークの相互作用が引き起こされたことを示唆しています。新しいルーチンが習得されるまで接続が再拡大するためでしょう。つまり、AIはたまに利用する方が良いのだと思います。

グループ間の大きな違いは、自分のエッセイを引用する能力、つまり自分で書いたエッセイを思い出す能力の違いでした。LLMグループは著しく成績が低迷し、参加者の83%(18人中15人)がセッション1で引用に困難を訴え、正しい引用をしたのは一人もいませんでした。この障害はその後のセッションで軽減したものの持続し、18人中6人がセッション3でも正しく引用できませんでした。書いた内容が脳にしっかりと内在化していないので、思い出すことすら難しいのでしょう。そして、LLMグループでは自分の書いたエッセイについて、自分で書いたものではないと思う人も多くなります。

脳のみを使ったグループの参加者のほとんどが、「何」を書いたのか、そして「なぜ」を書いたのかをより深く理解し、より深く考えていました。

私は、このブログを自分で書いています。さすがに2500以上の記事を書くと、全てを思い出すことはできませんが、大部分は何を書いたか覚えています。(探し出すのには苦労しますが)

AIが文章を書けば、独創性に欠け、均質化されてしまうでしょう。そうすれば、それを読む側にも意味がありません。

AIの書いたエッセを読んで、教師たちは次のように感じました。「魂がない」「定型的な表現や表現が繰り返されている」「内容的に空虚」「言語と構成がほぼ完璧であるにもかかわらず、個人的な洞察や明確な主張が欠けている」

ChatGPTなどを何度か使ってみるとすぐにわかりますが、AIはウソばかりを吐き出しています。世の中に存在すらしていないことを実在のもののように偽情報を提供してくれます。ウソを指摘すると「そうでしたそうでした」のように言い訳じみた回答をします。人間だったら嫌な奴です。

私はこのように毎日のように何かの記事を書いていますが、確かに何も考えずにAIが書いてくれたら楽と言えば楽ですが、何の醍醐味も面白味もありません。全部AIに任せてしまうのであれば、何も記事を書かない方がマシです。あるテーマについて自分の考えをまとめるには自分で書くしかありません。私の脳の中身はAIにはわからないでしょうから。AIの文章は私の考えではありません。AIは使えば早く文章は書けるでしょうけど、それは「私の文章」ではありません。

子供たちにAIを使わせて学習させてはダメでしょう。ネットの情報はウソも本当も混じっていることは知っているのに、それがAIだと正しいと思い込む可能性も高くなるでしょう。パソコンやスマホが広く普及しましたが、子供たちの学習の場面では、パソコンは昔のようにワープロ代わりに戻るべきなのかもしれません。考えることは人間が持ち合わせたスキルです。スキルは使えば使うほど上達します。しかし、それを外部に預ければスキルは身につきません。高度な脳を持った人間が考えることを止めてしまったらどうなるでしょうか?使わない筋肉がどんどん減少してしまうように、脳を使わなければ脳はどんどん働かなくなるでしょう。そして、それはすぐには取り戻せないでしょう。

もちろんAIはツールとして必要ではあるでしょう。すべては使い方次第です。AIは補助的に使用することは良いですが、即時的な利便性と長期的なスキル開発の間にはトレードオフがあると思われます。長期的なスキル開発をする重要な子どものころには、AIは有害となる可能性も高いでしょう。

AIはいわば膨大な知識を持ったバカです。どこかの専門家と同じです。人間では、知識はすごいけど、それを本当に使えるものにできるかどうかはその人次第だし、自分の専門外の様々な要因が自分の専門に影響を与えていることを知らずに、自分の持っている知識だけで話をしている人がいます。論文や学会のガイドラインを鵜呑みにしたり、その世界で語られている物語だけを重視したりします。生物学的に見れば誤っている考えであることは明白なのに、専門的な知識はそれを見えなくしてしまいます。そんな専門的には正しいと信じられているけど生物学的には間違っているような類の知識をぼうだいに寄せ集めて、AIは知ったかぶりをしてウソの回答します。いわゆる「ハルシネーション(Hallucination:幻覚)」(ここなど参照)です。

AIは人間のように考察ができなのでしょう。人間の言動には背景があります。それは表に見えない場合もあります。そしてその背景により言動が変化することが大いにあります。本当は間違っていることを知っていても、ウソを本当のことのように言います。その背景までAIが考えて言葉の真偽を確認していれば良いのですが、それは難しいでしょう。そしてAIの吐き出したウソで使えない知識をまたAIが学習すると幻覚はどんどんひどくなってしまいます。本当に膨大な知識を持ったバカです。

そんなAIが貴重な電力を無駄に消費します。(ここ参照)AIの企業は自分たちで発電するくらいにしないと、そのうち本当に生活に必要な電力を圧迫してしまうでしょう。違う意味でAIは人間にとって脅威になるかもしれません。

AIの使い過ぎは認知能力と創造力を急激に低下させてしまう可能性があります。もし現在AIを頻繁に使っているなら、定期的にAIを遮断し、自分の脳を使い作業をしましょう。

「Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task」

「ChatGPTであなたの脳:エッセイライティングタスクにAIアシスタントを使用すると認知負債が蓄積される」(原文はここ

2 thoughts on “AIに頼っていると脳がおバカになってしまうよ!

  1. PLAUDという¥27,500のレコーダ-、
    会議や申送の音声をAI機能で
    文書に変換してくれる優れもの、
    講義や研修中もメモやノートを取る手間から解放され、講師の話に集中できる、、、

    という謳い文句で「できるビシネスパーソン」の時短ツール、だそうで
    惹かれますが、どうなのでしょうね、

    まだ持ってませんが、

    1. 鈴木武彦さん、コメントありがとうございます。

      ただ単なる作業の代わりをしてくれるものは、ツールとして有用だと思います。
      でもメモやノートにとるという行為は、恐らくその内容を脳に定着させるためには
      効果的だと思います。
      どうでもいい議事録は機械に任せて、必要な情報は自分でメモする方が良いのではなかと思います。
      印象に残るような話の内容は、脳にも残るので、メモもいらないくらいでしょうけど。

鈴木武彦 へ返信する コメントをキャンセル

メールアドレスが公開されることはありません。 が付いている欄は必須項目です