https://twitter.com/shu_yamaguchi/status/1647760155893956608
この主張の反証はAPIドキュメントを参照せずとも結構簡単にできる。
まず、もし『「中央値のアウトプット」しか出せない』と仮定すると、学習データが更新されない限り同一の質問文に対して常に同じ回答文が返るはず。(学習データが変わらなければ、同一の質問文に対する回答文の中央値は一意に決まるため)
しかし実際はWebで使えるChatGPTにおいて同一の学習データを選択した状態で、質問するたびに回答文に揺れがある。
そのため『「中央値のアウトプット」しか出せない』は正しくない。つまり「中央値のアウトプット」以外の外れ値も出ていると言える。
なお、発言者を貶めたいとかではなく、こうやると反証できるな、というのを思いついて書きたくなったので増田に吐き出しました。
『「中央値のアウトプット」しか出せない』という主張は、文字通りの意味ではなく、 「人間の取るコミュニケーションであれば(相手の反応を見ながら)統計的には外れ値にもなるよ...
人間は同条件で再試行できないから、人間のアウトプットに揺らぎがあるかどうかなんて分からなくね?そのままのChatGPTに記憶がない、というのはあるけど。