これは素朴な考え方で、実際にはかなり倫理的レイヤーだとかの思想矯正を挟んだ内容を出力するようになってる
そういうレイヤーを挟むと、そういうレイヤーの基準を作った人たちの個人的な倫理基準が当然反映される
基準を作る人が、AIが特定の立場に有利な印象になる発言をするよう誘導することもできる
言語モデルの入力や出力に対してフィルターをかけないと、あの悪名高きMicrosoft Tayが生まれてしまうのでフィルターをかけるのは仕方ないが、
そのフィルターによってAI ChatBotは特定企業の思想・立場に強く影響された回答をするようになる、というのは認識しておいた方がいい
AIの方は客観的で慎重な回答をしているだけでどっちの立場も取ってなくないか? 逆に自分の意に沿わないものを危険とみなす考え方のほうが危険なんじゃないかと思うが。 そもそも開...
学習データに沿った回答をしてる これは素朴な考え方で、実際にはかなり倫理的レイヤーだとかの思想矯正を挟んだ内容を出力するようになってる そういうレイヤーを挟むと、そうい...