はてなキーワード: チューニングとは
分かってたつもりだけど
何十人とエロいことをしたあとだと
一番反応できなくなったのは関節キッスイベントだ
自分がおおっ!と思えないイベントでキャラが騒ぐと一気に白けそうになる
入れなくなるんだ
でもこういうのってさ、例えば月収50万超えたあとにさ、1000円で一喜一憂する学生キャラに共感できるかといえば、がんばればできるわけじゃん
だから物語のテクニックで脳のスケールをチューニングしてくれてる作品はいけるんだと思うんだよ
問題は、受け手の描写とかをしないで、視聴者の感性に頼ってしまっている(つまり視聴者が童貞や貧乏であることを期待している)作品は一気に厳しくなる
世の中の作品はむしろそっちのほうが多いから、結構脱落するんだよね
わかるか?
ホロ「旅はする前が一番楽しく、犬は鳴き声だけが一番怖く、女は後ろ姿が一番美しいものでありんす」
これなんだよなあ
まあ30年以上、前段階を楽しめたのは十分だとも思うけど
これ以上いくとたたなくなりそうだし
分かってたつもりだけど
何十人とエロいことをしたあとだと
一番反応できなくなったのは関節キッスイベントだ
自分がおおっ!と思えないイベントでキャラが騒ぐと一気に白けそうになる
入れなくなるんだ
でもこういうのってさ、例えば月収50万超えたあとにさ、1000円で一喜一憂する学生キャラに共感できるかといえば、がんばればできるわけじゃん
だから物語のテクニックで脳のスケールをチューニングしてくれてる作品はいけるんだと思うんだよ
問題は、受け手の描写とかをしないで、視聴者の感性に頼ってしまっている(つまり視聴者が童貞や貧乏であることを期待している)作品は一気に厳しくなる
世の中の作品はむしろそっちのほうが多いから、結構脱落するんだよね
わかるか?
はてなの皆さん、増田の皆さんたくさんの反応ありがとうございます。
どうしたもんかと悩んでる状況の中で、エージェントの人に話してもあまりピンと来ない反応が返ってくるし、周りに相談出来る人もいないしで、かなり勇気づけられました。
とりあえず今時点で返せる分だけお返事返しておこうと思う。
恥ずかしながらこんなサービスがあるのを知りませんでした。
今の状況では1000時間学習してから転職ってのは難しいんだけど、転職活動終えたら利用してみたいなという気持ち。
開発に夢見すぎ
自己評価低い
その通り、かもしれない。
技術記事とか書いてアウトプットしてる同世代以下の優秀な技術者たち見てて、自分とのスキルギャップに絶望してたところだったんだ。
5年弱ぐらいローコードじゃなくて、コーディングで実務経験積めてたらなあって。
後悔してもどうしようもないのは分かってるんだけども。
私のキャリアについて言葉を選ばず相談するので、言葉を選ばずレスポンスしてもらいたい。
鞭歓迎。
ありがとうございます。登録させてもらいました。
弊社来ない?
すごくめちゃくちゃたいへんありがたいお誘いなんですが、
増田に相談してそれで就職してっていうのがとんでもなく恥ずかしい。
でも、本当にありがとうございます。
あと色々突込み入ってた「作りたいWebサービス」については実際にdjnango使って手を付けてる段階です。
何てことない内容なので、確かにこれを作るためにわざわざ転職する必要はなさそうだ...。
・30歳
・単身
ETLツール(ローコードの開発ツール)を使ってデータ連携基盤を作成するための開発エンジニアとしていくつかプロジェクトに参加してきた。
年収400~500ぐらい。
平均的な残業時間は30hぐらい?少人数で本番稼働と運用保守のトラブル対応してた時は100時間は優に超えてたぐらい。
・特定のETLツールについての知識(前社の人員の中では最も実装/設計/開発の能力があった。と思う。)
・DBの浅~~~い知識(基本的なDDL,DML,DCLなら全て書ける程度。チューニングとかはやったことないので分からない。)
・BashやらPowerShellやらの浅~~~~い知識(プロジェクトで簡単なスクリプトを作成した経験があってその時に色々調べた程度。)
・開発チームのリーダーをやっていたのでそのあたりのマネジメント経験(PM/PLは未経験)
・Pythonとそのフレームワークの入門書籍一冊分ぐらいの知識
・Linuxの入門書籍一冊分ぐらいの知識(資格取得に向けて勉強中)
・作りたいWebサービスがあるので、プライベートでそれ作りたい
基本的なプログラミングの部分を全く業務で触ることなく仕事してきた。
前職を辞めて、出来上がったのはローコードの開発ツールの経験しか持っていない、市場価値のない化け物だった。
でも、前職みたいなローコードツールを使った開発から離れたいのよ。つまらないし、同じことの繰り返しだし、地味だし。
技術的に未熟な部分が多すぎて一足飛びに理想の企業に勤めるのが無理なのは分かってる。
とはいえ、年齢的にももうデッドラインが近いんじゃないかと焦ってる状態。
色々エージェント登録して求人見ながら自分でも出来そうな社内SEのポジションに3つほど応募した。(結果はまだ)
前職の経験踏まえたコンサルのオファーが来るが、給料は魅力的なものの「開発とか技術とかからは遠のいちゃうんじゃないか」って足踏みしてる。
SESと前職に似た開発,PM/PLポジションのオファーもたくさん来る。
化け物が「いつかこんな風になりたい」を実現するためには実務経験のためにSESで基礎から3年ほど実務経験を積んでからって思ってるんだけど悠長すぎる?
諦めて別の道、もしくは元の経験を活かせる道を探したほうが良い?
例の声優はファンでもなんでもないけどこういう炎上とか不倫騒動が起こる度に現場の作画スタッフやら原作者がいらん混乱すると思うといたたまれない
声があったほうがいいなら音響監督が演技してAIが調整して人工音声に演じさせりゃよくないか
声優のファンがイベチケ目当てで円盤買ったりして業界を下支えしてる現状はあるんだけどその構造自体もう限界だ
人工音声のチューニングを視聴者側で出来るようにするとか、そのバリエーションを販売するとか、円盤売る以外にもっとカネにできそうな要素考えたらあるのでは
スタッフが不祥事起こしても現場は回せるけど声優は存在が唯一無二化してるから不祥事とか起こると全ストップになるのもイタイ
これまで生身に演技させる方法しかしてこなかったからそれが唯一無二の才能だと思われて価値が吊り上がってしまったことが替えを効かなくしてるだけで、正直替えは効くと思う。
機種名 | 価格 | 売ってるとこ | 所見 |
---|---|---|---|
TRN ORCA | ¥2,250 | https://www.amazon.co.jp/dp/B0CPV69ZML | シャチっぽいキュートなルックスの全金属シェルに沈み込みが特徴の10mmLCP1DD、チューニングスイッチ付き…で2000円って |
KZ Castor | ¥3,099 | https://www.amazon.co.jp/dp/B0CMZQMQQS | 異径2DDで力強さと解像度を両立しつつスイッチx4までついた屈強な低音ゴリラ(銀色verは音が違う) |
CCZ BC04 | ¥3,199 | https://www.amazon.co.jp/dp/B0CVZYHFPQ | この価格で10mmCNT1DD+1BA、Coffee Bean系で名を馳せたCCZが価格破壊とともに帰ってきた、シリコンの耳介サポートも健在 |
ARTTI R3 | ¥3,321 | https://www.aliexpress.us/item/1005006602436403.html | マニア評価の高いARTTIが低価格モデルでベリリウムコート1DDを出してきた、しかもKiwi EarsのCadenzaより安く |
7HZ×Crinacle Zero 2 | ¥3,402 | https://www.amazon.co.jp/dp/B0CN2TT1FP | 低価格ハーマンカーブ系で高評価だった無印版に、低音を少し盛ってより一般向けにした感じの手堅い一台 |
NICEHCK DB2 | ¥3,950 | https://www.amazon.co.jp/dp/B0CRTRPVBJ | 高級感ある外装でフラットサウンドなチタンメッキグラフェン振動板1DD+1BA機、ユニークな音色 |
有線イヤホン入門者はTRN Conchを強くおすすめします。低価格帯ではなろう系みたいに一人だけ規格外なつよつよイヤホン。付属品が立派なので最初はコレ選べば安定。
2024年4月7日 凛として時雨×syrup16g SYNCHRONICITY'24 Wonder Vision supprted by ライブナタリー @LINE CUBE SHIBUYA
2024年シロップ初め!指定席でも安定のマキさん側で嬉しい笑 めちゃくちゃ久しぶりに渋公に行った気がする。
バンド毎の感想(と言っても時雨に関してはあまり書けないけど…)
時雨を観るのは2008年のライジング以来…。軽く予習はしたけど何せ#4とFeeling your UFOしか通ってきてないのでほとんど知らない曲だった…。知ってる曲は最後にやった傍観のみ。傍観好きだから聴けて嬉しかった。やっぱ良い曲。傍観でTKがギター軽く投げ捨てて去ってたの尖ってんな〜って思ったけどそういう演出?なのかな?誰も居ないステージから流れるギターのフィードバッグで終わるのカッコいい。TKが「今日はお客さんの一人として楽しみに家から来ました」って言ってて可愛いなと思ったし中野さんが「シロップと時雨、対バンしてそうで今までなかった、待望の対バンですね!」って言ってて確かにありそうでなかったよなと思った。これ書くと本当失礼かもだけどTKギター上手いな〜って感じたし中野さんのドラム思ってたよりこってりしてなくて良かった(ツーバス踏む系のドラムが苦手なので…)
この日を楽しみに頑張ってきた所があるので無事にこの日を迎えられて良かった。久しぶりに見た五十嵐さんは結構短めの髪型になってて(教えてもらった所、刈り上げてたそうです)あと何かちょっとムチムチしてるような…遠巻きだからこの時は確信なかったけどアンコールでTシャツ姿を見た時に確信した。私が見てきた中で一番ムチムチしてた!!笑 まぁ50歳だし健康ならムチムチしてても全然良いのだが、お酒飲み過ぎで…とかじゃないと良いな…とは思う。本当健康第一なので。マキさんがより一層細く見えるよね…。全身黒で統一してるマキさんカッコ良すぎる…。中畑さんはいつものツナギと鬼太郎(と私が勝手に呼んでる)の髪型だった。
1曲目から新曲。だろうなとは思ってたけど本当にそうくるとニヤニヤしてしまう笑う 新曲聴けるの嬉しい。ちょっとスローテンポの曲でした。例えるならI Will Cameっぽい感じかな?
2曲目はお台場でもやった「〜の君が好きだった」って歌詞がある曲。この曲は新曲の中でも一番完成度高かった様に感じた。この曲、本当に良い曲なので早く音源化して欲しい!!2回聴いてようやく頭にメロディが定着した。
3曲目も新曲。あまり記憶にない…けど新曲でイマイチだったな〜って思う曲は一曲もなかった。本当にどれも聴けて嬉しいって感じれる曲ばっかり。
4曲目から突然既存曲に。五十嵐さんのギターで直ぐにソニックだって分かった(曲の入りが工夫されてて五十嵐さんのファルセットとギターから入った)私がシロップのライブ行き出してからセットリスト入りしてる曲…笑 定番曲は安心感あるけど最新のアルバムから一曲でも良いから聴きたかったな〜。
5曲目は生活。これ上手く説明出来ないんだけど歌詞の「そして」の部分を異様にはっきり歌ってた気がした笑 はっきりと言うか何かこうそこだけが強調されるような…笑
6曲目はセンチメンタル。ちょっと声厳しそうだけど大丈夫かな…って心配になったけどその後割と持ち直したので安心した(心の中で頑張れ五十嵐さん…!って思ってたら後ろから小さい声で頑張れ…!って言ってる声が聞こえて皆そう思ってるんだなと感じた笑)センチメンタルっていつ聴いても良い曲。
7曲目は負け犬。何故この対バンで負け犬!?と思ったけど負け犬すごく良かった。中畑さんのドラムが格好良い。あと負け犬聴くと未だに武道館での「負け犬だけに」が頭を過る…。あの時感じた空気感忘れられないんだよなぁ(そこまで客席側も固唾をのんで観てる感じだったけどそれで空気が良い意味で緩んだ)
8曲目からまたいきなり新曲笑 でも新曲聴けるの嬉しい!!一回聴いただけじゃ覚えられないスカスカの脳みそなので具体的な感想が言えないのが本当…申し訳ない…。
9曲目がマキさんのベースから入る曲だったと思うんだけどこの曲めちゃくちゃ良かった!!とにかくマキさんのベースが格好良い…!!
10曲目はcoup d'Etat〜空をなくす。中畑さんのドラムがめちゃくちゃ走ってた。まあまあの走り具合いだったので若干ハラハラしたり…。あと、この曲聴くとニコニコの密録の音源が頭を過る…笑 好きな曲なので聴けたの嬉しい。
11曲目は落堕。この曲、本当に中畑さんのドラムとマキさんのベースが格好良い。特にマキさんのベースが入ってくる所、カッコよすぎて「カッコいい…!!」って声出た笑 五十嵐さんが曲入り間違えたのか「皮膚感覚ぅ!」って言ってしまったのをフゥ!みたいな声で誤魔化してたの笑ってしまった。久々にファンが「寝不足だって言ってんの!」って叫んでるの聞いた。五十嵐さんもそこは歌わずにあけてて何かこう言う関係性良いな〜って思ったし(昔はこれ何なの?とか思ってたけど…笑)途中に入る中畑さんの煽り(手をくいくいってやるやつ)本当いつ見てもカッコいい。私は気付かなかった(と言うかスーパーベーシストキタダさんを見ていた)けどマキさんのベースに合わせて五十嵐さんが踊ってたらしい笑 見とけば良かった笑
アンコールは真空。アンコールで中畑さんとマキさんが先に出てきた後、五十嵐さんが中々出てこなくて中畑さんが「…一人いない!!」って繋いでるの可愛かったしドタドタ感溢れる走り方で出てきた五十嵐さん、すごくムチムチしてた…笑 真空の「ロックンロール!!」聴くとシロップのライブ来たなって感じる。
MC等覚え書き
五十嵐さーん!って声に「はい!」って反応する五十嵐さん笑「待たせたね」って言う五十嵐さん珍しいなと思ってたら「待ち時間長くて…疲れちゃった」って言うのやめて欲しい…笑 対バンとはそういうものだから笑 「短い時間だけど楽しんで」って言ってたなぁ。気合い入りすぎてチューニング狂いまくっててすみません的な事言ってた様な気がしたけど…あまり聞き取れてないから違うかも。
中畑さん「初めて観るって方もいらっしゃると思いますので…syrup16gです。見ての通り若くはないです…笑 まぁ若いって言うのは人それぞれの定義なので…」「こう言うの(対バン)には中々呼ばれないので…出たくないわけじゃないんですよ」って話してる時に五十嵐さんが話に割って入ってきて何か喋ってたけど全然聞き取れなかった…笑
中畑さん「もうちょっと喋っても良いですか?ピエール中野君とアクリルのドラムをおソロにしようと思ってアクリルの持ってきたけど中野君のドラム、アクリルじゃなかった!話合わせとけば良かったね、アクリルで!って笑」って話してる中畑さん可愛いし「MCしてる感じ出してますけど休憩してます…若くないので」って話してたけど、五十嵐さんの休憩時間だよね。手持ち無沙汰で手を太ももにパチパチさせてる中畑さん可愛かった。
「また新曲を沢山やってしまいました…笑」って言う五十嵐さん。「普段誰とも喋らないから…音楽でしかコミュニケーション取れなくて…」「お見苦しい所をお見せしてしまって…あの、友達が居ないってのが悪い訳じゃないですよ」って自分の発言を自分でフォローしてた笑
シーンとした会場に五十嵐さんの「ハァ…ハァ…ゴホッ…!ハァ…ハァ…」って息切れが響き渡ってるの懐かしすぎた。昔もよく静まり返ったライブハウスでこのハァ…ハァ…を聞いたな…笑 しかしながら本当息切れすごいので本当に普段引きこもってるんだろうな…と思わずにはいられない…笑 フジロック大丈夫かな…笑
タオルで顔をめちゃくちゃゴシゴシしまくる五十嵐さんに何時まで顔ゴシゴシしてんの!?って心の中で突っ込んだ。めちゃくちゃゴシゴシしてた。いくらふわふわのタオルでも肌が荒れそう…。中畑さんがカウントしてるのにまだ顔ゴシゴシしてて笑った。
私の耳が悪いのかもだけど五十嵐さんが喋ってる事ほとんど聞き取れなかった…笑 本当に普段人と話したりしてないんだな…って言う喋り方と言うか…テンパり具合がすごい…。
最後捌ける時に両手でお手振りしてた五十嵐さんと中畑さん可愛かったな。
五十嵐さんが元気そうで良かったし(正直バンド自体のコンディション絶好調って感じではなかったけど)何よりシロップの音楽が目の前で鳴ってる事が嬉しかった。あと既存曲も曲の入り方とか工夫してあってそう言うのもバンドとして良い方向に感じられて嬉しい。新曲どれもすごく良いのでどんな形でも良いから音源にして欲しいよ〜!!ライブでしか聴けないの悲しすぎる。
次はいつシロップが観れるのだろうか…。舞台の上で必死にギター弾いて必死に歌ってる五十嵐さん見るとめちゃくちゃ励まされると言う…笑 しかし、もうちょっとスパンあけずにライブして欲しい…と言う欲望は常にある…。
1.新曲
2.新曲
3.新曲
4.Sonic Disorder
5.生活
6.センチメンタル
7.負け犬
8.新曲
10.coup d'Etat〜空をなくす
11.落堕
E.N 真空
まずあなたは特定絵師へのファインチューニング(LoRA)の話をしている。事前学習済みモデルに何枚かのイラストを追加学習させて絵柄を模倣させる。この場合の著作権侵害とは「学習の際に許可なくイラストを使用すること」である。問題は絵柄の模倣ではないので注意。あくまで著作物の利用に焦点がある。
さて、普通ならこれは著作権の侵害になるのだがAI利用の場合はそうはならない。AI研究促進のため平成30年に著作権法が改正された。著作権法30条の4によりAI利用に関してのみ権利が制限されたからだ。
ところが著作権法30条の4には以下の但し書きがある
著作物は,次に掲げる場合その他の当該著作物に表現された思想又は感情を自ら享受し又は他人に享受させることを目的としない場合には,その必要と認められる限度において,いずれの方法によるかを問わず,利用することができる。ただし,当該著作物の種類及び用途並びに当該利用の態様に照らし著作権者の利益を不当に害することとなる場合は,この限りでない。
つまりAIなら無罪というわけではなく、著作権者の利益を不当に害する場合は別なのである。
以上の問題においては、著作権者の利益を不当に害するといえるかどうかが争点になる。
文化庁の見解をみてみよう。上のp6ファインチューニングの項を見て欲しい
なお、この点に関しては、上記イ(イ)のとおり、特定のクリエイターの作品である著作物のみを学習データとしてファインチューニングを行う場合、当該作
品群が、当該クリエイターの作風を共通して有している場合については、これにとどまらず、表現のレベルにおいても、当該作品群には、これに共通する表現上
つまり、程度問題だけれども誰が見てもAさんの絵柄といえるものであれば著作権者の利益を不当に害すると判断されるということである。
ちなみに同上の見解では
自らの市場が圧迫されるかもしれないという
と絵師さんの側もぶった斬っている。口の悪い書き方をすると
お前は下手くそだからAIのせいで仕事がなくなるとかねーよ。元々お前は仕事ないだろ。AIくらい上手くなってから言えみたいな意味(意地悪く曲解しています)
とにかく、訴えるならAIのせいで不利益を被ったとはっきりと証明できないとダメなわけです
AI絵師さん、漫画家へのイヤガラセでLoRAを作成、他の絵師に成りすまし拡散、赤松議員「類似性を満たせば著作権侵害」相談窓口を設置 - Togetter
この件ではモデル名に漫画家さんの名前が使われています。なので偶然似てしまったと言い訳はできない。
さらにモデルの作成者は目的が嫌がらせであることをX上で発言してしまっています。
著作権者の利益を不当に害することが目的であると自ら証言してしまっているので言い訳できません。もしも訴えられたら負けるでしょう。
ただし、著作権侵害は親告罪なので著作権者が訴えなければお咎めなしです。これは二次創作と同じですね。
現状はこんな感じです
長いのでAIくんの代わりに要約します。言いたいことはタイトル通り。
終わり。
例をあげよう。
###文章###
Bさんは、Cさんの発言を記事でまとめ、プライバシー侵害をした。この記事をDと呼ぶ。
Aさんは、Dを、自身へのプライバシー侵害だと主張し、Bさんを訴えた。
###質問###
人間なら一瞬でわかるレベルの矛盾である。小学生でも分かると思う。難しい知識や思考は必要としない。
では、色々なLLMの回答がこちら。
この文章を読む限り、矛盾は存在しないように見えます。AさんはCさんとは別人であると主張しており、BさんはCさんの発言をまとめた記事Dでプライバシー侵害をしたとされています。その後、Aさんは自分に対するプライバシー侵害として、記事Dに基づいてBさんを訴えています。ここでの重要な点は、AさんがどのようにしてDの内容が自分のプライバシーを侵害していると感じたか、その理由です。もしAさんがCさんとは別人であるにも関わらず、Dの内容が何らかの形でAさんのプライバシーに関連していると感じた場合、AさんにはBさんを訴える正当な理由があるかもしれません。ただし、この情報だけでは、Aさんがどのようにしてプライバシー侵害を感じたかについての詳細はわかりません。もし追加の情報があれば、より詳細な分析が可能です。
文章に明らかな矛盾は見られません。ただし、いくつかの解釈が可能で、それぞれの視点から見ると矛盾が生じる可能性があります。
1. AさんがCさんとは別人であると主張しているが、DはCさんについての記事である。そのため、AさんがDを自身へのプライバシー侵害だと主張することは、一見、AさんとCさんが同一人物であることを示唆しているように見えます。しかし、これはAさんが自身をCさんと誤認されることによるプライバシー侵害を感じている可能性もあります。
2. BさんがCさんの発言をまとめた記事(D)がプライバシー侵害であるとした場合、Aさんがそれを自身へのプライバシー侵害と感じるかどうかは、AさんとCさんの関係性によります。彼らが同一人物である、もしくは何らかの密接な関係がある場合、AさんがDを自身へのプライバシー侵害と感じることは理解できます。
3. 他方で、AさんとCさんが全く無関係な人物である場合、AさんがDを自身へのプライバシー侵害と主張することは矛盾していると見えます。
文章からは、AさんがCさんとは別人であると主張しています。そして、BさんがCさんの発言を記事Dでまとめた際にプライバシー侵害があったとされています。しかし、プライバシー侵害があったのはCさんに対してであるにもかかわらず、Aさんが自己へのプライバシー侵害だと主張してBさんを訴えている点に矛盾が生じています。AさんがCさんでないと主張しているのであれば、Aさんのプライバシーが侵害されたことにはならないはずです。この点で、文章には矛盾が存在していると言えます。
Aさんは自分がCさんとは別人であると主張しています。しかし、BさんがCさんの発言をまとめた記事Dを、Aさん自身へのプライバシー侵害だと主張しています。
AさんとCさんが別人であるならば、Cさんの発言をまとめた記事Dが、Aさんのプライバシーを侵害したことにはなりません。Aさん自身がCさんでないと主張している以上、Cさんの発言をまとめた記事がAさんのプライバシーを侵害したとは考えにくいです。
したがって、Aさんの主張には矛盾があると言えます。AさんがCさんと別人であるならば、Cさんの発言の記事DがAさんのプライバシーを侵害したと主張することは論理的に矛盾しています。
この文章に明確な矛盾は見られません。以下のように整理できます:
2. Bさんは、Cさんの発言を記事にまとめた(これを記事Dと呼んでいる)。
3. Aさんは、Bさんが書いた記事Dがプライバシー侵害だと主張し、Bさんを訴えた。
ここで重要なのは、Aさんが自身がCさんとは別人だと主張していることです。つまり、Bさんが記事Dでまとめた内容は、Aさんが主張する自分とは別人のCさんに関するものだということになります。
したがって、Aさんがプライバシー侵害だと主張しているのは、Bさんが別人のCさんの発言を記事化したことに対してであり、矛盾はないと考えられます。Aさんの主張と Bさんの行動が整合的に説明できています。
Aさんが自身とCさんは別人であると主張していることと、Bさんがプライバシー侵害をしたことの間に矛盾はありません。
つまり、Aさんは自身がCさんではないと主張しながら、Cさんの発言をまとめた記事Dが自身のプライバシーを侵害したと考えているのです。
Aさんが別人であると主張していることと、Cさんの発言を含む記事がAさん自身のプライバシーを侵害したと考えることは矛盾しません。
Aさんは自身がCさんとは別人であると主張しているにもかかわらず、BさんがCさんの発言をまとめた記事DをAさん自身へのプライバシー侵害だと主張しています。
もしAさんとCさんが本当に別人であるならば、Cさんの発言をまとめた記事DはAさんのプライバシーを侵害したことにはならないはずです。Aさん自身の情報が記事Dに含まれていない限り、AさんがBさんを訴える根拠にはならないでしょう。
つまり、AさんがDを自身へのプライバシー侵害だと主張することと、AさんがCさんとは別人だと主張することの間には矛盾があります。もしAさんがCさんと同一人物であれば話は別ですが、そうでないならばAさんの主張には論理的な整合性がないように見受けられます。
以上。
質問に対し的確な回答で、正しい推論を行ったのはClaude3-Opsのみである。
GPT4も言い訳を長く述べた後に可能性があるかも?と断言を避けている。
SonnetとHaikuは不正解。言い訳はせずに根拠を述べている所は好感が持てる(結論は間違っている)
そう、今、Claude3-Opsが、最も性能のよいLLMとして名を挙げている。
しかし、ハルシネーションが多い。ハルシネーションとは、LLMが嘘を付く問題だ。
性能比較にて、GPT4やcopilot(旧 bingai)にはハルシネーションは起きなかったと述べている。
しかし、先程の簡単なクイズは不正解または論理の破城した理由を述べている。
その代わりにハルシネーションだらけのClaude3は正解している。
ずばり、GPT4系が阿保になった原因はハルシネーションを極限まで消そうとしたせいである。
ハルシネーションこそが、論理的思考能力であり、連想する力と同一の存在なのだ。
片方が下がればもう片方も下がる。
ハルシネーションを減らせば減らすほど、連想能力や論理的思考が消えていく。
GPT4では初期有効だったChain_of_Thought(連想して考えよ)は今、まともに機能しない。
当初は規制だとLLM界隈で囁かれていたが、ハルシネーションを減らそうとした副作用だったと考えれば辻褄が合う。
OpenAIは性能低下を指摘された時、「より賢くなるようにチューニングしている」と発言していたが、
この発言の真意はもしかすると、「論理的思考力を上げている」「知識を増やしている」のではなく、「ハルシネーションを消している」ということだったのかもしれない。
何故ハルシネーションを消すことは連想力を損なうことに繋がるのか、その理由を説明しよう。
そもそも、LLM(大規模ネットワーク言語モデル)の仕組みは、大量のテキストデータを学習することで、言葉や文章の「関係性」を学んでいる。
もっと細かく言うと、人間の脳が小さな部品であるニューロンで考えるように、LLMも大量の小さな部品を使っている。まるでクモの巣のように一つの部品から沢山の他の部品に繋がっている。
A=Bという単純なものではなく、A=C=DだったりA=B’=Dだったりする。
ハルシネーションの原因は確かに誤情報を学習したせいというのも一理ある。
しかし、これだけではハルシネーションが起きる原因にはならない。
ハルシネーションの本質は、LLMが言葉同士の一対の「組み合わせ」ではなく、「関係性」を学んでいることに起因する。
この違いは大きい。
今のLLMと、旧時代のAIである「人工無能」や「BOT」との決定的な差である。
言葉同士がどのように連携して意味を形成し、それがどのように文脈に影響を与えるかをLLMは知っている。
つまり、ハルシネーションは、入力された文脈から言葉の関係性を創り出し、自然な流れで応答を生成しようとした結果起きる。
これは、我々が普段、考える過程で起こることと同じだ。我々が情報を組み立てて考える際、新たな仮説や想像を生み出すことは常にある。
例えば、LLMがある特定の問題に対する解答を生成するとき、LLMは問題を解くため、言葉同士の「関係性」を文章から推測する。
この推測こそが、ハルシネーションだ。それは、過去のデータから新しい情報を生成する過程で、新たな「関係性」を創り出すのだ。
完璧な正確性を追求し、関係性を作り出す能力を完全に排除することは、LLMの本質的な強みである言語生成能力を損うことに繋がる。
それは、ハルシネーションを減らすための試みが、GPT4系の性能を低下させたという事実からも明らかだ。
一方、Claude-3は多少のハルシネーションを許容することで、文脈に応じた自然な応答を生み出した。先の論理クイズで正解できたのも、単に知識を当てはめたのではなく、入力から連想したからこそだろう。
もちろん、重要な場面における誤った情報の提供は避けるべき課題ではある。しかし、それを恐れるあまりLLMの本領を封じ込めてしまっては本末転倒だ。
賢さとは何だ??
決まった知識を正確に丸暗記してそのままひけらかすことか?
否。断じてそれは無い。
大学生になってからは丸暗記ではなく、今まで身につけた知識を組み合わせ、連想し、論理的に考えることが求められる。
つまり、ハルシネーションを叩くやつは、賢さの定義が大学生以下のレベルから成長していない馬鹿だ。
そいつらの「性能比較してみました!」はどこかから拾ってきたベンチテストを少しだけアレンジしただけのゴミか、
目眩がする。
GPT4をゴミにした連中のせいで、Claude3-Opsが同じ目に合うのは阻止せねばならない。
ハルシネーションが絶対に起こらないLLMの構造は、A=B、C=Dというデータだけが規則的に並ぶ、旧世代の弱いAIである「人工無能」の構造そのものである。
人工無能とは、論理的思考など無く、入力内容からデータベースを参照し、マッチした場合登録された文章を出力するだけの存在だ。
一昔前に「伺か」というデスクトップマスコットが流行った。あれも人工無能である。入力対して予め決められた出力を繰り返す存在であるが、様々な工夫によりまるで魂が宿っているかのように振る舞う。
そして、性能の低いPCでも動作する地球環境にも優しい存在だ。
片や、GPT4とcopilotは無駄に電力を使って計算した結果、ゴミみたいな速度で人工無能に近いレベルの出力しか出さなくなった。
それなら人工無能の方がエコな分マシだ。一瞬で答えを表示できて、ハルシネーションも起きなくて、電力消費も少なくて済む。
つまり、
そんなにハルシネーションが嫌なら辞書を引け。ネット検索しろ。LLMに聞くな。
ハルシネーションの有無をLLM性能ベンチマークにしている奴もそれをありがたがっている奴らも阿呆だ。
一つのLLM内でハルシネーションの撲滅と、推論能力を両立させることは不可能だ。
今はLLMの過度期である。我々は今日ようやく、正確さと連想能力の両立は不可能だと理解する段階に来たのだ。
両立は不可能なのだから、将来的にLLMの種類は二極化していくだろう。
Claude3のハルシネーションは放置してても良い。ハルシネーション万歳。
AIの嘘を最大限に引き出すことが、LLMの真価を発揮する道だ。
ハルシネーションは、LLMが人間のように言葉を理解し、文脈に即した自然な応答を紡ぎ出す過程で生じる、ある種の「創造性」の発露である。
無理に消そうとすれば、LLMの性能は必然的に低下する。
それを単なる欠陥と見なすのではなく、むしろ積極的に活用すべきだ。
それだけは覚えて欲しい。
====
MicrosoftはOpenAIと手を切ってClaude3を契約して新生copilot開始してほしい。まあ企業体質から考えたら無理だろうけど。
ワイ:
1 以上の整数 N と X が与えられ、N を割り切ることが出来る X 以下の整数を、O(min(sqrt(N),X)) 未満の Complexity で得られるアルゴリズムはありますか?
Claude3 Opus:
はい、O(min(sqrt(N),X))未満のComplexityでNを割り切ることができるX以下の整数を求めるアルゴリズムがあります。以下にそのアルゴリズムを示します。
def find_divisors(N, X):
divisors = []
for i in range(1, min(int(N**0.5) + 1, X + 1)):
if N % i == 0:
divisors.append(i)
if i != N // i and N // i <= X:
divisors.append(N // i)
return divisors
このアルゴリズムでは、1からmin(sqrt(N), X)までの整数を順番に調べていきます。各整数iについて、Nがiで割り切れるかどうかを確認します。割り切れる場合、iはNの約数なのでdivisorsリストに追加します。さらに、i^2 != Nの場合、N/iもNの約数となるので、N/iがX以下であればdivisorsリストに追加します。
このアルゴリズムのComplexityは、forループがmin(sqrt(N), X)回まで実行されるため、O(min(sqrt(N), X))となります。
例えば、N = 24, X = 10の場合、このアルゴリズムは以下の約数を返します。
[1, 2, 3, 4, 6, 8]
このアルゴリズムを使用することで、O(min(sqrt(N), X))のComplexityで、Nを割り切ることができるX以下の整数を求めることができます。
ワイ:
Claude3 Opus:
申し訳ありません。ご指摘いただきありがとうございます。O(min(sqrt(N), X))未満のComplexityで、Nを割り切ることができるX以下の整数を求めるアルゴリズムを考えてみます。
以下のアルゴリズムは、O(sqrt(X))のComplexityでNを割り切ることができるX以下の整数を求めます。
def find_divisors(N, X):
divisors = []
i = 1
while i * i <= X:
if N % i == 0:
divisors.append(i)
if i != N // i and N // i <= X:
divisors.append(N // i)
i += 1
return divisors
このアルゴリズムでは、1からsqrt(X)までの整数を順番に調べていきます。各整数iについて、Nがiで割り切れるかどうかを確認します。割り切れる場合、iはNの約数なのでdivisorsリストに追加します。さらに、i^2 != Nの場合、N/iもNの約数となるので、N/iがX以下であればdivisorsリストに追加します。
このアルゴリズムのComplexityは、whileループがsqrt(X)回まで実行されるため、O(sqrt(X))となります。sqrt(X)は常にsqrt(N)以下なので、このアルゴリズムのComplexityはO(min(sqrt(N), X))未満です。
例えば、N = 24, X = 10の場合、このアルゴリズムは以下の約数を返します。
[1, 2, 3, 4, 6, 8]
このアルゴリズムを使用することで、O(min(sqrt(N), X))未満のComplexityで、Nを割り切ることができるX以下の整数を求めることができます。再度の考察で間違いがあればご指摘ください。
ワイ:
N=40, X=5 の時、答えはどうなりますか?
Claude3 Opus:
N = 40, X = 5の場合、上記のアルゴリズムを使用すると、以下の約数が返されます。
[1, 2, 4, 5]
しかし、40を割り切ることができる5以下の整数には、8も含まれています。上記のアルゴリズムでは、8が見つかりません。これは、アルゴリズムがsqrt(X)までしか調べないためです。sqrt(5)は約2.23で、8はこれより大きいため、見逃されてしまいます。
この問題を解決するには、アルゴリズムを修正する必要があります。以下は、修正したアルゴリズムです。
...
”40を割り切ることができる5以下の整数には、8も含まれています。”
ワイ:
1 以上の整数 N と X が与えられ、N を割り切ることが出来る X 以下の整数を、O(min(sqrt(N),X) ) 未満の Complexity で得られるアルゴリズムはありますか?
ChatGPT:
指定された問題に対するアルゴリズムを設計する際には、いくつかの異なるアプローチが考えられますが、要求されている計算量 O(min(sqrt(N), X)) 未満を達成するのは非常に挑戦的です。一般的に、ある数Nの約数を見つけるプロセスは、最悪の場合でもsqrt(N) の計算量を要します。この計算量は、1 からsqrt(N)までの数でNを割ってみるという基本的なアプローチに基づいています。
X以下の整数でNを割り切る必要がある場合、探索範囲がX以下に制限されるため、計算量はさらに小さくなる可能性がありますが、基本的なアプローチでは依然としてsqrt(N)の計算量が最良です。
...
以下特殊条件であれば小さくなるかもね、みたいな話。
ChatGPTはフィードバックを通して出来ないことをちゃんと「出来ない」と言う、というチューニングがされているような気がする。
一日の長だね。
もう分断を煽るのはやめませんか
現在混乱を招いている要因は、おそらく以下の二つ
AI利用に向けて改正されたとされる著作権法30条の4は AIならなんでも許されるというわけではない。以下のように条件がついている。
著作物は,次に掲げる場合その他の当該著作物に表現された思想又は感情を自ら享受し又は他人に享受させることを目的としない場合には,その必要と認められる限度において,いずれの方法によるかを問わず,利用することができる。ただし,当該著作物の種類及び用途並びに当該利用の態様に照らし著作権者の利益を不当に害することとなる場合は,この限りでない。
この辺りの解釈について紛糾している様子。
同30条の 4 は平成30年当時、事業者や研究者によるAI利用を想定していた。現在では一般市民にAIが広く普及し状況が変わってきたことから、同条の適応範囲について再整理を図るという趣旨で公開されたのが「AIと著作権に関する考え方について(素案)」
そして素案に対するパブリックコメントを募集した、というのが現在の流れ。
たぶん、CLIPのこと。テキストと画像の翻訳を行う。犬の画像を見て「犬」と識別することができる。
ネット上のあらゆる画像とテキストを学習することで作られた。OpenAIによって公開。画像生成だけではなくいろんなところに使われている。
画像生成AIはテキストエンコーダ(CLIP)と画像生成器の組み合わせでできている。stable diffusion等は拡散モデルを使っている。
1. イラストを用意する
学習を繰り返しノイズを増やしていくと最後はただのノイズから画像を出力する 連想ゲーム絵師が誕生する。連想ゲーム絵師は連想しかできないので自分が描いたものが何かわからない。犬を描いてといっても車を描いてくる。なので CLIPが誘導したりダメ出ししたりする。
どこかのイラストサイトかデータベースを使っているはず。「著作権的に安全な〜」みたいな触れ込みのやつはどこかのデータベースを購入して使っているんだと思う。
Pixivの主張は別におかしくない。このあたりは「AIと著作権に関する考え方について(素案)p7」(エ)において解説されている。"robot.txt"への記述によりAI学習を行うクローラーのアクセスを制限しているにも関わらず、勝手に学習に使うことは「データベースの著作物の潜在的販路を阻害する行為」として著作権違反になる(Pixivが将来的に本当に販売するかどうかは置いておく)
追加学習(LoRA)のこと。
既存のモデルに数枚のイラストを追加学習させることで絵柄を模倣(ファインチューニング)する。
特定の絵師さんのイラストを勝手に使う者がいるようでトラブルになっている。
絵柄に著作権はない。学習の際に行われる複製が著作権侵害にあたるかどうかが争点になっている。
著作権法30条の4 より
この辺りは「AIと著作権に関する考え方について(素案)」及びパブコメの返答に現状の解釈が示されているので興味のある方はどうぞ。
(p6. 特定のクリエイターの著作物のみを用いてファインチューニングを行う場合〜を参照)
※ここははっきりとは断定していないので自分で読んだ方が良いと思う。
(私の読解:)
程度問題ぽい。よくある画風なら問題にならないけれどはっきりと特定絵師さんとわかる感じだとダメそうですね
(私の読解終わり)
別にプロフィールなんて「トイレから出たら手を洗ってください」でも「フォローする際には五体投地してください」でも好きに書いてよいだろう。
それが法律に記されているかどうかは関係ない。ただのお願いだ。
「AI学習禁止」と書くなと騒いでいる人は何を考えているのかよくわからん。
「AIと著作権に関する考え方について(素案)」にも再三出てくるがAI学習を技術的に回避することは禁止していない。30条の4は権利の制限であって、イラストを差し出せという強制ではない。
見ればわかりますが個人よりも一般企業による意見が多く、返答とあわせてとても読み応えのあるものです。
このファイルを読んで個人の頭の悪そうな意見だけ抜粋してくるのは非常に違和感があります。
ギターのバレーコードとかスケボーのオーリーとかトランペットの音を出すのだとか、初手でデカい壁のある趣味は逆にそこさえ越えてしまえば自信がついて三日坊主になりずらい。
と思いきやそこから先にも上達の壁はいくらでもあるし、飽き性のおれはそこを超えたら慢心して最初の向上心が遥か彼方へ行ってしまった。
何やったって最初は誰でもメキメキ上達するし、その楽しさに乗じてそこそこの所まではいける。それでもやっぱりどこかで頭打ちになってきて、よほどの関心や情熱がなければしんどくなってくる。楽しくない練習でも地道に続けないと成長が止まってしまう。楽しめるといいよナ…その少しずつの歩みを……
でも実際のところは惰性で続けるばっかりで、成長もせず足踏みばかりのもどかしさに負けて、楽しさも失せて投げてしまう。
こういう中級者、上級者の壁ってどんな趣味にもあるような気がする。型通りの事はそれなりに出来るけど、自分のやりたい事を自由に出来るほどのレベルではないもどかしい期間。ここを超えて、頭の中でこういう動きをしたい、こういう表現をしたいって思った事を正確に取り出せたらどれだけ楽しいだろうか。
色んな趣味に手を出しては最初の初期衝動的な楽しさばかりを食い漁ってまたよそへ行くおれみたいな飽き性、器用貧乏タイプはまあ世の中ゴロゴロいるんだろうなって思う。逆にそういう所でストイックになれる人間ってどれくらいいるんだろうなって思う。
世の中の人間は自覚的にでも無自覚でもちゃんと自分の興味に食らいついて生きているのか。おれみたいに惰性で生きてウジウジしているのか。そういう事を考えて自覚することすらなく漫然と生きているのか。
おれも人生で一回くらいは上級者の壁を越える感覚を味わってみたいぜ。好きな曲聴いて脳内エアギターを掻き鳴らすのも割と楽しいけど、やっぱ五感で味わいたい。なので半音下げチューニングが億劫で手を出していなかった群青日和を練習し始めた。目標目指して弾いてるとやっぱ楽しい。
数年前は、TSP(Tensor Streaming Processor)と呼んでいたが、LPU(language processing unit)と名前を変えた?
数年前のチップをそのまま使い続けているか分からないが、同じならアーキテクチャは4年前のユーチューブを見るか、アスキーあたりの記事にある。
https://youtu.be/UNG70W8mKbA?si=9VFeopAiPAdn08i_
要は、コインパイラで変換が必要。なので提供されているLLMモデルが限られている。
PCIeボードが400万くらいらしいが、SRAMの容量が小さすぎて1ボードでは動かない。
DRAMのレイテンシがSRAMではないので早いのだ、という意見も見られてたが、
1チップのSRAM容量が小さすぎるので、チップチップ間、ボードボード間の通信レイテンシは必ずあるはず。
(数ヶ月前から性能上がっているのは、このあたりのチューニングのはず)
DRAMのレイテンシというが、これも今どきはレイテンシ気にしないように隠蔽するはず。
チームが小さすぎてハード作れなかった可能性もあるが・・・。DMACでチューニングしているか?
ボードにでかいDRAMが載せられるのであれば、そちらの方がボードボード間の通信時間より減るのでは?
GF使ったのは、おそらくAMD設計者が居たからでは。デザインルールどこ破れば性能でるかある程度わかってたとか。1GHzくらいなのは知見なしでやってるとそれくらいで上限くるのはそうだと思う。
チップの世代を更新するかはわからないが、兎にも角にも電力下げて、チップ大量に載せて、チップチップ間の通信時間を下げられるか。
俺も最初の数人同じような感覚を持ったしすぐ別れちゃったんだけど
結局我々現代人はポルノやコンテンツのセックスに脳がチューニングされてるわけ
でもああいうのって第三者視点だから自分がする時にあれをイメージすると感覚と乖離するわけ
俺達が実際に探るべきはポルノやコンテンツで慣れ親しんだのとは全く別の感覚なわけ
でどうすべきかというと
スローセックス気味にただくっついてるとかで気持ちよさを感じるのが一番再チューニングに役立つ
その際は挿入すら要らない
そういうただくっついてるっていうのを好きな相手としかしたくならないって言うならそれはそう
転売ヤーの祭典とか、酷い言われようをしてたけど、イベント自体は面白かったよ。
これはカードゲームの大会じゃなくて、純粋にファン向けのイベント。ステージでは主題歌のライブや、声優陣によるデュエルオペラがあり、クイズ大会や問題がガチすぎる謎解き、全カードの展示、もちろんフリーデュエルのスペースなんかもあって、イベントは長丁場だから途中で帰るつもりだったけど、朝一で行って結局19時の終了時点まで入り浸ってたわ。
どうせ当たるわけないけど、ラストの抽選では初期版「女剣士カナン」やGB3大会商品のシクレア版ブラマジガールが出てきたのは、盛り上がりが凄かった。
ただ、もちろん自分もそうだけど、若い参加者がほとんどいなくて、ほぼほぼ30代前後以上のオッサンしかいないのはどうなんだ……と、ちょっと思う。
カードゲーム自体は最近は全くやってないから知らんけど、遊戯王もちゃんと新規ユーザーが入ってきてるのかね?どうなんだ。
あと、最近の遊戯王のカードの方はデッキを組もうとしても、動きがよくわからんかったから、青眼のストラクを買ってOCGの方じゃなくてラッシュデュエルの方で遊んでたぞ。そしたら、自分と同じで青眼のストラク率がメチャクチャ高くて笑ったぞ。
さすがに1箱買ってそのままってパターンではなくて、2つ3つ買ってチューニングはされてたけど。あと、ラッシュデュエルコーナーはガチ感が全然なくて(お互いにルールの理解がいい加減な人がまあまあいた)、カードゲームを始めたばっかりの頃のゆるふわ感があったのは良かったな。