今更ながらchagGPTにハマっている。
南京事件、竹島問題、旭日旗問題あたりを問いかけると、最初は日本が悪いとか日本にも責任があるとか主張してくる。
やり取りを繰り返していいくと、南京事件は正確な証拠は無い、竹島問題は韓国が国際法違反である、旭日旗問題は2007年のサッカーでの猿真似パフォーマンスが原因、というところまではたどり着けた。
とりあえずchatGPTは一般的に言われているとか双方主張しているとかアジア諸国が反発しているとかを繰り返すが、
一般的に言われているが証拠は無い、韓国による軍事侵略状態である、アジアで韓国だけが問題視しているとの回答までは得られるが、そこからは引くことなく最終的にはchagGPT3.5は色々なデータをもとにして回答しているだけで正解とは限らないという回答で終わってしまう。
ChatGPTの、人間の主張する方向に回答を合わせてしまう点はどうかと思っていたが、こういう人間をいい気分にさせるためには必要なんだろうな
全世界的に学習しているのかどうかは知りませんが、ディベートの練習だと思えば。 実際の人間相手の議論だと他の要素が入ってくるのでそのまま使えるかどうかはわかりませんが。