やる事によっては別に無理筋でもなんでもないような
AI使ってやっちゃだめなことは人間がやってもだめじゃない? その線引をAIにするのは厳しいよ
そんなことないでしょ 機械使って大々的にやったらアウトだけど 個人が規模を小さくやるだけなら許容 みたいな法律ってあるじゃん
その路線はそれはそれでちょい軸ずれてるのよな 規模を問題視するなら単純に規模で判断すればよくて 一回AIと置換かけて誤差うむ意味ない
更に軸がずれるが「契約の主体となること」 https://biz.moneyforward.com/contract/basic/8128/ AI自体に権利を持たせたり責任を負わせることはできない
なおやっぱりAIはツールって話だよな 法人格みたいな概念上の主体でもないわけだし 線引はそこにない
ストレートにAIアウトになるかもなのは倫理関連かな 兵器筆頭に
倫理的にだめってのは結局気持ち的に嫌ってことだよね 内心の自由はあるので嫌と思っているのは良いよ
そういう判例とか慣習はあるかもだけど法律もあるの?
機械でいいならあるんでは? 例えば人間に速度制限ないし
だとしてもAIが問題なんじゃなくて速度が問題だという話じゃないかな 速いことが問題で手段が問題じゃないんだし 人力で大量ならOKでAIで大量はだめてのは意味なくて結果を規制しない...
ゲームとか公平性を求められるものはもちろんだが 倫理の問題に関わるものとかもあるし 逆にAIはよくて人間はダメってのもあるしな 自動運転とか医療AIとか