増田は某大学の非常勤をやってる。人文系分野だ。最近ChatGPTを使用したようなレポートが増えている。
なぜわかるかというと、事実の捏造が多いのだ。いかにもありそうなタイトルの本や論文が参照文献に上がっているが、その分野を専門としている増田は聞いたことがない。これではいかんと慌てて探して読もうとするとどこにも見つからない。著者名もタイトルも出版社もすべて実在しないことさえある。
内容も酷い。単に理解が足りないだけの答案は文章もしっかりしていないから微笑ましいくらいだ。そんな中に、やたらと自信満々に断定口調で間違ったことを書いている答案が混じる。それも、○○説の内容を誤解しているとかではなく、××が○○説を提唱していると言い張っているが実際にはそんな説を提唱してはいない(別の人が提唱していたりはする)というレベルだ。
増田はAIに甘い方だと思う。文章作成のサポートには使えばいいと思うし、しっかり自分で事実確認して仕上げるなら情報探しの手段にしてもいいと思う。だがAIを間に受けて捏造を垂れ流すのはやめてくれ。
自分で試しに使ってみたこともあるが、現時点では文章作成サポート以上の作業は任せられないと感じた。人文系の増田には詳しいことはわからないが、おそらく要するに学習データの多いパターン学習なのだろうか。こういう言葉を含む質問にはこういう言葉を返すと喜ばれるというのを高度に学んでいるだけの代物に見える。一般的な事柄についてはそれで適切な答えが得られるのだろうが、大学の授業でやるような専門的な内容になると学習元が少ないのか偏るのか、ともかくそういった理由でおかしなアウトプットをしてくるのだろう。あくまでパターンを学んで言葉を繋げているだけだから、実在する本のタイトルとそうでない本のタイトルの区別なども不得意に見える。
最近「ChatGPTに聞いてみた」とか言うのを嬉しそうに披露している人も見かけるが、ちゃんと自分の手でファクトチェックをしているのだろうか。AIは便利な道具だが、学生もそれ以外も、ちゃんと最後は自分の手で責任を持って調べて欲しい。
だって「~~だと思う」ばっかりだと先生怒るんだもん だから仕方なく断定してるのに、今度は間違ったことを書くなって言われても困る 俺に不可能なことを求めるんじゃない
AIの書いた答案をコピペするんじゃなく、自分でちゃんと調べろと言ってるんだ。学生が断定口調で間違いを書くことなんて織り込み済みなんだから、そんなことで怒りはしない。AIの断...
訓練でAIアシスト使うヤツは学費をドブに捨てている。非合理である。非合理であることには理由があるはずだ。間違ったら叱られるということを極端に恐れている者がいる。または、元...