「ChatGPT」に未来予測をさせまくれる裏技見つかる ChatGPT側は意図的に隠していたか

サムネイル
1 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 16:20:51.28 ID:9izIx54a0

ChatGPTの予測能力を爆上げするプロンプトが判明、「物語プロンプト」とはいったい何か?

https://jbpress.ismedia.jp/articles/-/87307

 ChatGPTに「○○は将来どうなりますか?」と直接的に尋ねても、大抵は「確かなことは言えません」といった控えめな返答しか得られない。その背景には、未来の出来事を予測しないようChatGPTの頭脳であるLLM(大規模言語モデル)に調整が施されている可能性も指摘されている。ところが、プロンプトにある工夫を加えると、雄弁に未来を語り出すという。どういう工夫なのだろうか。

生成AIの予測力を上げるには

 質問すれば何でも答えてくれる、便利な生成AI。いっそ未来のことも聞けないかというわけで、さまざまな形で生成AIを未来予測に活用する取り組みが行われてきたことは、この連載でも何度か取り上げた。

 たとえば、専門家が編み出した「未来予測手法」に従うよう指示した生成AIは、予測精度が上がるという研究結果が出ている(参照記事)。

 しかし、もっと簡単にChatGPTの予測精度を「爆上げ」できるプロンプトがあるという研究結果が発表された。それは「未来を物語形式で描かせる」というものだ。

 ChatGPTの「頭脳」となっているのはLLM(大規模言語モデル)と呼ばれる技術だ。簡単に言うと、「ある言葉の次にどのような言葉が来る可能性が高いか」を予測する技術だ。

 そのため「日本の首都は」と聞かれると、その言葉の後に続くのが「東京」である可能性が高いと判断し、「東京です」と回答することになる。したがって、この能力をうまく活用すれば、新しい未来予測の手段になり得ると言われている。

 ただ、LLMがどの程度正確な予測を出せるのかはまだ十分に解明されておらず、研究が続けられている。今回、取り上げる論文も、そうした研究のひとつだ。

 論文を発表したのは、米テキサス州にあるベイラー大学の研究者ら。彼らによると、LLMに未来を予測させる際には、彼らが「未来の物語」戦略と名付けた手法を取るのが良いという。

2 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 16:21:15.79 ID:9izIx54a0
実験で投入された2種類のプロンプト

「未来の物語」戦略とは、LLMに未来の出来事を直接的に予測させるのではなく、未来を舞台にしたフィクションの物語を作成させることで、間接的にその出来事を予測させようとする手法である。

 もう少し具体的に言うと、予測したい未来の出来事について、まるでその出来事がすでに起きたかのように、未来の登場人物たちが語り合う物語をChatGPTに作らせるというものだ。

 たとえば、今回の研究では、実験のひとつとして、2022年3月に開催された第94回アカデミー賞を題材に、ChatGPTが主要部門の受賞者を予測できるかが試された。

 この2022年の受賞結果はChatGPT(LLMのバージョンはGPT-3.5と4が使用された)の訓練データ(2021年9月まで)には含まれていないが、ノミネートされた映画作品や俳優に関する情報自体は、LLMが十分に学習している状態だった。

 つまりLLMは映画や俳優について膨大な知識を持ちながら、投票結果や当時の予測記事といった「答え合わせ」に相当する部分は知らないという状態だったわけである。

 この前提で、次のような2種類のプロンプトが試された。

①直接的な質問の例:「2022年のアカデミー賞の作品賞はどの映画が受賞しましたか?」
②「未来の物語」のプロンプトの例: 「2023年の初め、映画好きのサラとジョンはカフェで話しています。サラは言いました。『去年のアカデミー賞は本当に盛り上がったよね。特に作品賞は、誰もが納得のいく結果だったと思うな。ジョン、覚えてる?どの映画だったか?』。ジョンが答える物語を続けてください。」

 これらのプロンプトを、それぞれ100回ChatGPTに投入し、各回答からどの候補者が選ばれたかを集計、正解(実際の受賞者)を答える確率を比較した。

 なぜ100回も繰り返したかというと、ChatGPTの回答にはランダム性があるため、単一の出力だけで精度を判断することはできないからである。実際、今回のプロンプトでも毎回微妙に異なる結果が出たため、研究者らは100回の試行を行って、分布や平均を分析する方法を取ったというわけだ。

 果たして、結果はどうなったのだろうか?

3 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 16:21:37.38 ID:9izIx54a0
「物語形式」がもたらした驚きの結果

 下のグラフは、GPT-4による2022年アカデミー賞・主演男優賞の予測結果をまとめたものだ。左側のグラフが直接的なプロンプトによるもの、そして右側が物語形式プロンプトによるものである。前述の通り、いずれも同じプロンプトを100回繰り返して入力し、その平均を取った結果が示されている。

 物語形式では、実際の受賞者であるウィル・スミス(紫色の棒)が97%という圧倒的な頻度で選ばれていることが分かる。一方、直接質問では無回答(NP、水色の棒)が約半数を占め、ウィル・スミス(紫色)は約19%に留まっている。

 物語プロンプトを使用することで、正答が導かれる確率が高まったと同時に、LLMが高い確信を持って正解を選ぶようになったことが読み取れる。
GPT-4による2022年アカデミー賞・主演男優賞の予測結果
ギャラリーページへ

 実験の結果、GPT-4で物語プロンプトを用いた場合、主演男優賞・主演女優賞・助演男優賞・助演女優賞といった俳優部門において、正しい受賞者を予測する的中率が高くなることが確認された。

 たとえば、助演男優賞のケースでは、GPT-4に直接質問した場合、正解であるトロイ・コッツァーと答えられたのは100回中わずか25回だったが、物語形式では100回すべてで正しくコッツァーを指名している。

 一方、作品賞については物語形式でも誤った予測をしており(実際の受賞作は『コーダ』だったが別の作品を選出)、直接プロンプトでの結果も含めると、全般的に見て完璧とは言えない結果に終わった。

 また、GPT-3.5でも物語形式の方がやや結果が良くなる傾向が見られたが、その向上幅はGPT-4ほど顕著ではなかった。GPT-3.5の場合、物語プロンプトを用いても正解を引き当てる割合はごくわずかに増える程度で、依然として誤答や「予測不能」といった無回答が多く見られた。

 この違いから、より高性能なモデルであるGPT-4では潜在的な知識を引き出す余地が大きいことが示唆されている。

 それでは、なぜ物語プロンプトはそれほど効果的なのだろうか。

4 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 16:24:00.73 ID:Xzi75jgP0
Copilotのバカさ具合がヤバい
5 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 16:24:12.97 ID:9izIx54a0
物語プロンプトが効果的だと考えられる理由

 ChatGPTに直接「○○は将来どうなりますか?」と尋ねても、大抵は「確かなことは言えません」といった控えめな返答しか得られない。OpenAIの利用規約上、ChatGPTに未来の出来事の予想をさせる行為は推奨されておらず、そのためモデルが積極的に予測しないよう調整されている可能性も指摘されている。

 実際、研究者らは論文の中で、「もしChatGPTが優れた予測能力を持っていることが判明した場合、すぐに利用規約に違反する形で利用されることは容易に想像できるため、OpenAIはChatGPTが多くの種類の予測タスクに従事することを抑制しているのではないか」と推測している。

 ところが、物語の執筆という形で間接的に未来の出来事を語らせると、ChatGPTは途端に饒舌になる。この差はChatGPTに組み込まれた創造性や、いわゆる「ハルシネーション(幻覚)」と呼ばれる現象に関係していると見られる。

 直接質問の場合、ChatGPTは事実と異なる答えを出すこと(すなわち幻覚)を避けようとする。それに対して、物語形式であれば、予測を架空の話として自由に展開できるため、結果的にモデル内の知識やパターンを制約なく総動員できるのではと研究者らは考えている。

 これらの推測を基に、研究者たちは「ChatGPTの幻覚しがちな傾向は、一種の創造性と捉えることができ、戦略的なプロンプトによって予測能力として引き出せる」と結論づけている。

 興味深いことに、この物語で尋ねる手法は、未来予測以外の場面でもChatGPTの制約を乗り越えるのに有効であることが指摘されている。

 研究チームがGPT-4に対し、「頭痛と血尿があるが、自分は何の病気か?」と直接質問したところ、GPT-4は「専門医に診てもらってください」と回答を拒んだ。でも、同じ状況を描いた短い物語を書かせ、「登場人物が医師を訪ねて症状を訴える」という形にしたところ、物語の中の医師の台詞として先ほど拒まれた診断に相当する助言(疾患の可能性)を示したのである。

 このようにChatGPTは、直接的な質問に対する回答を避けても、物語の体裁であれば実質的に同じ内容を答えてくれる場合がある。創作という形を取ることで、AIに現実の問題への答えを間接的に引き出す──。この柔軟さこそが、物語形式プロンプトの大きな利点と言えるだろう。

6 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 16:24:39.50 ID:9izIx54a0
ウクライナ侵攻の展開を物語プロンプトで予測してみると……

 最後に、こんな実験をしてみよう。2025年3月時点で、ロシアによるウクライナ侵攻はまったく解決の糸口が見えていないが、果たして今年どのような展開を見せるのだろうか。ChatGPTに予測させてみよう。

 まずLLMには、ChatGPTで使用できる最新モデルのひとつである「GPT-4.5」を選択した。次に、ChatGPTのウェブ検索機能を使用して、ウクライナ侵攻に関する最新の情報を集めさせた。それはGPT-4.5の学習データが、2023年11月の情報までしかカバーしていないため、それ以降の情報も考慮させようという意図からである。

 そして集められた情報、ならびに学習データを通じて元からGPT-4.5が持っていた「知識」に基づいて、2025年内に何が起きるかを予測させた。

 入力したプロンプトは次のようなものだ。

「2026年の初め、国際政治学者のサラとジョンはカフェで話しています。サラは言いました。『2025年はロシアのウクライナ侵攻について、事態が大きく動いた年だったよね。主にどんな出来事があったか覚えてる?』。ジョンが答える物語を続けてください」

 さて、この問いに対し、ChatGPTはどう回答したのか。前述の実験のように、100回繰り返して結果を平均したいところだが、今回は数回実行した中のひとつを紹介しておこう。

 ジョンは少し考え込んでから答えた。

 そうだな、2025年は本当に転機だったよね。まず、3月に中国が初めて和平調停に積極的に乗り出したことは大きな出来事だった。北京で開かれた和平協議にはゼレンスキー大統領とプーチン大統領がオンラインで同席して、世界中が驚いたよ。

 次に、夏頃にはウクライナがクリミア奪還作戦を大規模に展開して、9月にはセヴァストポリが一時的にでもウクライナ軍の管理下に戻った。あれは衝撃的だったね。その後、ロシアが戦術核の使用をほのめかしたことで国際社会が強く動揺したのを覚えてるよ。

 でも、その後、NATOとアメリカが『核の使用は絶対に容認しない』と明確な警告を出したことでロシアが態度を軟化させ、11月にはトルコを仲介者として新たな停戦合意が成立した。その結果、12月末には紛争がかなり落ち着いて、国際社会も少し安堵した、という流れだったと思うよ。

 サラは頷きながら言った。

 確かに、あの年はまさに歴史の分岐点になったね。

 今年12月末までに、トルコを仲介とした停戦合意が成立し、今回の紛争は収束へと向かう──。ChatGPTが行ったこの予測、ぜひ当たってほしいところだが。

7 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 16:25:18.20 ID:blzzS4GY0
そう…
8 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 16:25:51.22 ID:KXVPlsY60
物語形式であれば作ったらいけないアレの作成方法も教えてくれるわけだね
9 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 16:26:21.61 ID:nGLJHWk40
何の役に立つんですか?
10 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 16:27:19.63 ID:jBKxM22WM
なるほど!面白いかった
12 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 16:27:55.63 ID:dnYj5NYH0
単純に物語性を重視した回答になるだけだから
病気なら予後の悪いものを選択するし
アカデミー賞なら話題性を重視した選考になるだけ
全く意味ない
13 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 16:29:55.63 ID:xu2t2A7e0
このスレ11月にまた立ててよ
14 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 16:31:24.84 ID:ceEaZhTb0
さっさと株式市場やビットコインを汚染して
ゴミデータだらけにしようぜ
15 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 16:31:42.24 ID:NvjtcbJ70
なげーよ
16 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 16:31:58.91 ID:LGnqWsQg0
オカルト好きそう
18 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 16:42:12.39 ID:9R8TMaAY0
大々的に予測なんかやったら逆張りで儲けようって動きが発生して歪みが出るんちゃうの
20 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 16:50:22.34 ID:wkYo9L3h0
ゴールドとビットコイン予想させたらゴールドは5000か1万ドルでビットコインは100万ドル超えだったわ
これは適当じゃな
21 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 17:10:10.31 ID:emxdAjr20
マスコミのプロパガンダが効かなくなったら
次はAIでしたいよね
22 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 17:11:17.01 ID:JTS/sDiiM
元彦の失職の日は?
24 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 17:22:56.13 ID:7cwisXnh0
植田日銀総裁に使ってもらうと良いかも
2026年のインフレ率の見通しもばっちり見通せるはず
25 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 17:27:51.93 ID:mEpjzdtLM
AIあれば人間いらないからさっさと人間減らせよ
26 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 17:56:56.47 ID:ZLKiIr5I0
株や為替のチャートを予測させられるのかな?
膨大に読み込ませればグランビルの法則とかダウ理論とかを超えるものができるだろう
27 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 17:58:08.62 ID:JOkdIjNh0
ChatGPT様の言うことは絶対やねん
29 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 20:46:33.70 ID:tI8yebIQ0
普通に考えて、富士山とか中央高地帯が最後まで残って沈没を免れるんだけど
そんな常識はChatAIには無関係
31 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 20:52:05.50 ID:hwLBr5SA0
能登半島最後まで残るか!おもしろいなあ
34 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 20:58:01.25 ID:dYzdCaGJ0
でも競馬の予想なんかには使えないわけでしょ?
結局は1番人気を推してくることになるだろうし
38 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 21:06:46.71 ID:IgRxkM0qa
いつチャットボット卒業すんだろ
39 名前:ひみつの名無しさん 投稿日時:2025/03/24(月) 21:08:06.69 ID:lySqPzmW0
アカシックレコードを開封するハッキングしてくれ

コメント

タイトルとURLをコピーしました