• ベストアンサー

chatGPTでの論文や研究の検索について

以前は「○○を××した研究の論文名を教えて」と聞くと、いくつかの論文について論文名などを提示し教えてくれていたのですが、いつからか 「申し訳ありませんが、私の知識は2021年までのものであり、最新の研究論文については把握していません。… 最新の研究情報を知りたい場合は、学術データベースや専門的な文献を検索することをおすすめします。医学や栄養学の分野で専門家が執筆した論文や研究レビューを探すと、より具体的な情報を見つけることができるでしょう。」 と言ったようなメッセージに変わりました。 どう聞いたら以前のように該当する論文を表示してくれるようになるのでしょうか?

質問者が選んだベストアンサー

  • ベストアンサー
回答No.4

論文だけじゃなくて、私が国会議員歳費の予算総額について質問した時にも、同じように2021年うんぬんという答えでした。 最近そういう回答になる事が増えたように思います。 AIが嘘の答えを返すという批判からか、不正確な情報の場合には回答を拒否するような仕様に変更されたかもしれません。

suit321
質問者

お礼

ご回答ありがとうございます。 イタリアや色々な国が使用禁止や制約をかけた辺りから回答の歯切れが悪くなった気がします。 それまでは凄く便利に使えていたのですが最近は政治家の答弁の様な曖昧な回答になって技術の進歩に足枷を掛けてるような気がします。

その他の回答 (3)

回答No.3

私には、理解が及びません。何故、論文をAIで検索しなければならないのでしょうか。ある論文を読めば、巻末に参照論文がずらっと出てきますよね。また、あなたの研究分野には、サーベイ論文はないのでしょうか。あるいは、専門書には必ず参照する論文等が載ってますよね。

noname#259322
noname#259322
回答No.2

No.1です。 質問者さんは、どういう立場で、どういう目的で論文を検索されたいのですか?(答えなくて大丈夫です) 論文を参照したり、書いたりするような人であれば、検索エンジン以外で、ChatGTPに頼るより精確に論文を検索する方法を知っているはずなのです。 たとえば国内ならCiiNiiやJ-Stage、海外の生化学系有名どころならPubMedです。 いずれにしても、ChatGTPは常に内部のアルゴリズムに常に必要に応じて修正があてられているようですから、返答が変化するのはむしろ仕様です。いつも常に同じ返答を返すサービスではありません。 「なぜそのような変更が行われたのか」ではなくて、逆です。「ChatGTPは常にそのように少しずつ変わっていくのが当たり前」と理解し、使いこなす必要があります。

noname#259322
noname#259322
回答No.1

AIはどういうコマンドを入力するか、つまり尋ね方次第なところはあるので、 「2021年までで○○を××した研究の論文名を教えて」のような期間を限定すると回答するかもしれません。 以下は回答ではありません。 そもそもChatGTPにはそういう検索エンジンとしての使用方法は向いていないことはご存知ですか? 今まで「教えてもらった論文」が本当に実在するか、確かめたことはありますか? ChatGTPはその名の通り「会話用AI」です。 これが出てきたとき、その応答のなめらかさが世界中を震撼させたのはご存知の通りです。 しかし同時に、「検索エンジンのように使おうとすると、しれっとウソをつく」問題が生じていることもほどなくして知られるようになりました。 一例として、 >「先行する技術開発の状況と関連する論文を教えてほしい」と質問したときのこと。ChatGPTはもっともらしい研究を提示し、その内容を要約してくれた。ところが、その論文の名称をインターネットで検索したところ、全く見つからなかった。ChatGPTが架空の論文を偽造した可能性が高い。 出典:世界で話題のChatGPTに残る懸念、嘘をつくAIは使えるのか https://business.nikkei.com/atcl/gen/19/00511/012500009/ ある利用者が「ChatGPTがこの図書館にあると言っていた本を見せてほしい」とやってきたけどその本はその図書館にはないものだった https://togetter.com/li/2112415 ChatGPTお兄ちゃんにオススメのカフェを聞いたら巧妙に嘘の情報を混ぜてくるサイコパスお兄ちゃんになった話 https://togetter.com/li/2111013 これらはほんの一例です。 何かについて尋ねると、存在しない回答をでっち上げるはむしろ通常運転で、 ユーザーがわざと存在しない風習をについて尋ねたら、完全に肯定して豊富な事例を羅列した(むろん、そんなものは実在しない)、 といった遊びまでこなします。 この欠点についてははむろん、ご存知だと思うのですが…。 twitterなどでも、連日、あちこちで「AIがこんなウソをついた。やっぱり、AIはまだまだだな」という投稿がされていましたから。 質問サイトでも、AIに答えさせるユーザーが急増しましたが、この「AIが嘘をつく」問題のため、非常におかしな回答をしているユーザーばかりです。 私は、私が非常によく知ってる物語について、ChatGTPが、てにをは以外でたらめの単語しかちりばめていない回答を目にしたことがあります。質問者は喜んでいましたが、1文字も合っていない。 そして、開発社側はその原因を明確につかみ、修正することができませんでした。原因はいまだに不明です。 AIは事実と架空とを区別できません。そして「ユーザーは正しいと仮定せよ」という指向性が与えられているため、「〇〇の論文を教えてよ」と言われると、それっぽい単語を組み合わせてしまうのでは、という仮説はあります。 そして、その問題を抜本的には解決できなかったため、仰るような応答をするように一時しのぎの変更が行われたのではないでしょうか。 問題は、質問者さんが検索エンジンではないChatGTPを検索エンジンとして使おうとしている点です。 問い方次第では今でも、論文名を挙げさせることはできます。 ですが、その答えを精査できないのであれば、ChatGTPを使うのは怖いことですし、いちいち精査する手間が必要なのであれば、使う意義がありません。 これらについてご理解されているとは思いますが、ですがだからこそ、 なぜChatGTPにまだ「論文名を答えさせる」方法をお尋ねになるのか、意図がわかりかねます。

suit321
質問者

お礼

ご回答ありがとうございます。 それまでは、chatGPTでその論文名を教えてもらって、その論文名や研究機関名から検索して論文に到達するのが、検索エンジンで直接検索するより早く該当する論文を見つけられたのに、なぜそんな仕様に変わったのか知りたくて質問しました。

関連するQ&A

専門家に質問してみよう