知らないのはお前だけ定期
文字列の確率論的採択に人格を感じるようじゃ人間が下手くそって何兆回言えば理解できるんだよ馬鹿めが
昨日、「AIに人格を感じるやつは馬鹿」と言う自称インテリとバトルをした。奴は結局、インテリを自称するだけの、無知で想像力の欠如した人でしか無かった。 さて、AIの人格性につい...
ちゃんと「人格」の定義を明確にしてから議論したか?
知らないのはお前だけ定期
論文読んで出直してきて
ChatGPTは純粋な確率論的選択ではなく回答内容にかなりの「修正」を通して出力している
でも君が書いた文章も部分的には君の脳が行った確率論的採択である可能性はあるよね そしてChatGPTにbig5の質問を回答させることが可能なので、人格のようなものはあると言えばある
乱数の種固定してから言え馬鹿
コンピュータサイエンティストでも、人格があるかないかについて両方の意見があるわけだけど、なんで君はそんなに自信過剰なの?
ねえよ馬鹿NP完全の概念理解しろよ低能
ん?NP完全が、どうすれば「コンピュータが人格を持ちうるか」と関係したのかな?もっと詳しく述べられないなら低能と同じレベルのままだぞー。
LLMを理解してない低能
それを私に言うとはw 企業で自然言語処理の開発をしているのですけどね
ちげえよ馬鹿自然言語じゃねえよLLMだ二度と間違えるな低能
LLMは自然言語処理研究の部分集合だぞ低能
論文ぐらい読めよクソが別文脈で別用語だ馬鹿
バントルのカオス帰納は階数いくつ?
除数でも除数でもいいけど一致するからでも答えられねぇだろLLMと自然言語同一視してるようじゃなクソが中卒の分際で馬鹿言いやがって
同じ入力に対して同じ回答しかできないことを函数って言うんだけど、そういう中学の知識もないのか?
でも君という人間に同じ入力をしたら同じ出力が得られるかもしれないよね?
ねえよ馬鹿皮膚に水垂らして同じ軌跡を必ず辿るとでも思ってるのか低能
思考実験ぐらいできるでしょ 人間に関与する全センサーと状態(あるいは取り巻く環境等)を一致させたら出力が一致するのか?ぐらいの
チューリング完全の前に何故思考実験をする必要があるのか説明しろよ低能
お前が「関数」だのという話をするから、古典力学の範疇なら理論的にはすべて決定論的に予測可能だと言っただけだぞ低能
ちげえよ馬鹿それは関数だ函数答えろっての低能
漢字表記にこだわるうざい系のオッサンでしたか...低能はちびって寝とけ
ギャハハ コイツらのちんこ芝居ホンマにオモロいでぇ
字じゃなくて概念の違いだ馬鹿
その思考実験とやらは函数の引数何で返り値は何だよ説明しろよ馬鹿
仕様を明記しろと言ったのではないぞ 人間も関数同様と言えるのではないかという話ね
皮膚に水垂らして同じ軌跡を必ず辿るとでも思ってるのか?何度同じ間違いするつもりだ低能
すべての状態が一致すれば一致するだろ、古典力学の範疇なんだから
csの話だ馬鹿