そんなことないでしょ 機械使って大々的にやったらアウトだけど 個人が規模を小さくやるだけなら許容 みたいな法律ってあるじゃん
その路線はそれはそれでちょい軸ずれてるのよな 規模を問題視するなら単純に規模で判断すればよくて 一回AIと置換かけて誤差うむ意味ない
ストレートにAIアウトになるかもなのは倫理関連かな 兵器筆頭に
倫理的にだめってのは結局気持ち的に嫌ってことだよね 内心の自由はあるので嫌と思っているのは良いよ
気持ちと言っても倫理は全人類の総意(であるべき)とかに近い概念だろうから 個人の自由とかではないんだよな
その通りだから倫理と法律、規制は違うんだ
ん?横増田だが気持ち的に嫌って所の話してたんじゃないの? 「気持ち的に嫌」が先にあってそれを元に制度やら規則やらが後から作られるって意味で
相違として気持ち的に嫌だから規則はできないんじゃないかな すべの規則や法律に根拠はいるよ
更に軸がずれるが「契約の主体となること」 https://biz.moneyforward.com/contract/basic/8128/ AI自体に権利を持たせたり責任を負わせることはできない
なおやっぱりAIはツールって話だよな 法人格みたいな概念上の主体でもないわけだし 線引はそこにない
そういう判例とか慣習はあるかもだけど法律もあるの?
機械でいいならあるんでは? 例えば人間に速度制限ないし
だとしてもAIが問題なんじゃなくて速度が問題だという話じゃないかな 速いことが問題で手段が問題じゃないんだし 人力で大量ならOKでAIで大量はだめてのは意味なくて結果を規制しない...
現実で人間は速度の規制されてなくて車は規制されてるのは人間がそんな速く動けないからでしょ AI使うことで人間に達成不可能な成績が出せてそれで不都合がある場合AIだけ禁止される...