はてなキーワード: ファイルとは
数日前に書いてたテキストファイル捨てるの勿体無いと思ったので張る
例のあのフォーマットに乗ってWeb漫画の話をしようかと思ったがWeb漫画は山ほどあるし別に網羅的に読んでる訳でも無いので単に自分の好きな作品を書くことにした人が居たので便乗。
消えてる作品以外はブックマークが残ってるので探しやすくてよかった。
2012か13ぐらいから読み始めた人。それ以前も知らないし、最近も知らないしひどく偏ってるはず。順不同
みんな大好き(なはず)。転生元の(中途半端な)知識と超絶魔力持ちでチートではあるが、虚弱常識知らずなど、情熱と人脈でカバーしてく。
これと謙虚ぐらいしか男性向けっぽいの読んでなかったし、読んでも合わないの多い中(ゴミ拾いのとかテイマーのとかは読んでた)、何度も読み返した名作中の名作。
言い過ぎだけど、パトレイバーや銀英伝レベルで社会に出てから有用な知識が得られる。
(パト、銀英伝信者からしたら言い過ぎ、そうではない人からしたらそんなもんかってなる?)
現実世界への巻き戻り。細かいこと(と重要なことのほとんど)は忘れたが、サッカー選手になれなかった大人がサッカー始めた日に戻ってやり直す話。
確か戻るのはその一回ぐらい。戦術等の知識が大人レベルなのと、コツコツ努力できる(練習の目的がはっきり、効率もよい)のと、あとなんか鷹の目みたいな俯瞰視点だけで頑張る。
雰囲気は週刊少年誌のサッカー漫画みたいなの(ジャンプっぽさはなく、サンデーマガジンのどっちか寄り)。恋愛要素が少なくて物足りなかったような、中学生編ぐらいまでで終わったのとかで悲しかったような。
これと続編(サブアカウント)のセット。アイリッシュスナイパーは含まない(好きだけど)
VRMMOは二大ジャンルのひとつだったり、転生、転移に次ぐ第3のジャンルだったりしたが、あまり人気作が無かった(当時の個人的な印象)中、(根底に)デスゲーム要素もなく、描き切りつつ、VRMMO系で不足しがちな現実世界にも重点を置いたのが本作。
MMO要素は各キャラのなりきりに由来するコメディ要素やストーリーの本筋に絡む仕掛けであって、中身は群像劇要素も強く、主人公以外の成長物語でもあり、半沢みたいなのとかでもあり、ミックスグリルみたいな作品。あえて大げさに言うと、大長編ドラえもん詰め合わせみたいな。
章ごとに目標が変わってたりしつつ、最後でどかんと一気に色々纏まるのがめちゃくちゃ気持ちよかった。主人公大人だし、なろうっぽくない(なろうっぽくないことはないが)
主人公も一応精神的に色々成長します。地の文の好き嫌いは分かれそう。
クソゲーとして名高いバグだらけのゲームの中に入ってしまい、バグ(仕様()も多い)を駆使して気持ち悪いことを沢山する。
読んで知って欲しいのだが、全方向を騙していくのとか、サブキャラとかが立ってるのとか、一応色々吹っ切れてるのが面白すぎた(作者的にはセーブしてるのかも)
本作作者の他作品も少し系統違ってても面白いので、他作品挙げたいが完結してなかったりするので、出会いの本作をエントリー。
タイトルそのまま。ちんちくりん系の女子と普通の女子のコンビに、個性的なパーティメンバーなどで冒険する。
基本的にはテンポよく成長していくし、仲間も頼りになる。地の文とかほのぼのした雰囲気も好きだし、ちょっと年齢層高め向けのギャグとかも合ってた。作中でどういう扱いだったかは忘れたが馬は脳内でひんべえ(いつもいっしょのおうま)になる。
真剣なシーンでも気が抜けるような描写が多くて好きだったかも。
終盤SF過ぎたのとか好みが別れるところか。SF方面だったかは定かではないが
時代がずれてたら防振り(途中までしか読んでない)ぐらい売れてたかも。コミカライズされてたの今知った
頭おかしなった。突っ走ればよかったのにと思ったような。
おもろい。
これも流行った。
きつね可愛い。同作者の他作(沢山あったはず)も読んでみたけど、これがなんか時期的になのか、一番ハマった。
その他の候補作
影響は受けたが、読んでないので
色物かと思ったら意外としっかり面白かった。アニメ見て、原作一気読みした。
転スラ
すごいのはみんなわかってるが、重要度は低い。
このすば
どこにも書いてないが、これ系では他作品のほうが影響受けたので除外。
宝くじで40億
Immersive Translateっていう翻訳ツールというかブラウザ拡張機能が便利すぎてヤバい
<追記>
斎藤氏再選の一番の功労者?戦犯?はやっぱりマスコミだと思う。マスコミよりSNSを信じる人が増えた、のではなく、マスコミの雑な仕事っぷりに困った有権者が仕方なくSNSで調べた、ってとこじゃないかな。
アンケートの4割がクロだからパワハラ、って言われても、人伝で聞いたの含めての数字となると、過半数はパワハラ見聞きしたこともないのにクロって決めつけられるのはなあ、って思うよ。4割の中身をもう少し分析して、知事と直接接触のある部署だと8割越えてた、みたいな数字出せば良かったのに。
元県民局長の自殺の件も、「不倫はデマ」「不倫とパワハラは関係ない」と言われても、パワハラ野郎を告発したのがセクハラ野郎ならそれで話は変わってくるし、プライベートなファイルの中身が出せないんなら、周辺に取材して「不倫なんかする人じゃありません」てコメント取ってくれば良かったんだよ。芸能人相手なら平気でそんなことするでしょ?
で、パワハラ以外の公約についてきちんと比較したような記事もない。そうなるとマスコミ以外の情報に頼らざるを得ないじゃない?
まあ兵庫県知事選なんて東京からみりゃ只の地方選で、そんなに取材にも手間掛けられないんだろうからわからいでもないが、「俺らがこう言ってんだからそれを信じろ」ってのはやっぱり今後は通用しないのでは?
<追記終わり>
兵庫県民です。
・立花氏の選挙戦術がそれほど功を奏した印象はない。立花氏については胡散臭いと思ってる人が多い感じ。自分の地元には立花氏の選挙カーも来なかったし、そこまで盛り上がってる感はなかった。
・パワハラについては、役人に言うこと聞かすにはキツく当たらんと仕方ない、と思ってる人が多い印象。パワハラって自分がされるのは嫌だが、自分に横柄な対応した連中がされるのはざまあ見ろって感覚。
・で、パワハラ問題抜きにして、各候補の公約見ると、やっぱり現職だけあって斎藤氏が一番具体的。というか、他の候補者は現状の県政の問題点が何なの?って分析もきちんと出来ていない感じ。
そもそもの話、X社は画像生成AIなど作っていない。彼らがつくっているのは検索支援AI Grok。学習に使いたいのはテキストの方であって画像ではない。
わかりやすさのために ChatGPTと比較してみる。2023年にリリースされた GPT-4 に試しに今期のアニメについて質問してみよう。
今期最も人気のアニメはなんですか?
ChatGPT:
2024年の今期で人気のアニメはいくつかありますが、「進撃の巨人」や「呪術廻戦」が特に注目を集めています。また、新作では「東京リベンジャーズ」や「スパイファミリー」も話題です。どの作品に興味がありますか?
アニメに詳しい人ならちょっと古い話をしているのがわかるだろう。 GPT-4 が学習を行なったのは2023年までの情報だ。なので最新の話題に対応できないのである。
一方、Grok は Xの投稿をリアルタイムに検索して反映する。もし Grok で同じ質問をすればダンダダンやリゼロ、ブリーチ辺りの話をするはずだ。つまり、Xが収集したいのは「ダンダダンの7話泣かされたわ・・・」みたいな投稿のことであってイラストではない。
Grokには画像生成機能がついているが、これは自前の物ではなく Black Forest Labs社 の FLUX.1 というモデルである。X社が Xに投稿されたイラストを収集して学習させているわけではないのだ。それでは FLUX.1 の訓練に使ったのはどこの画像なのだろうか?データセットは明らかにされていないが十中八九使っていそうなのが LAION-5B である
現在大手の企業は「著作権的にクリーンな」画像生成AIをつくっているが実際には版権物が出てくることが知られている。なぜそんなことが起こるのだろうか?
このからくりは LAION のデータセットにある。LAIONはドイツにある非営利組織。ネット上のありとあらゆる画像を収集しタグをつけたデータセットを公開している。
A. LAIONは非営利の研究組織です。ドイツの著作権法(§60d UrhG)に従いあらゆる著作物の利用が許されています。
とあるようにドイツの法律上合法である。実際に訴えられた後LAION側が勝訴している。とはいえこの組織にはAI関連企業からの多額の寄付金があることが知られており、パチンコ3店方式のような意味合いでの合法とも言える。
尚、反AIさんと反々AIさんが著作権法第30条の4を巡って喧嘩をしていますが、世界では日本の法律は関係ないです。いちおう念の為。
他の絵師さんに Glaze を使うように詰め寄ったり、使わないやつはAIに加担していると攻撃したり。挙げ句の果てには「自分の絵にGrazeをかけました」と宣言したり。
もう、全てが間違っている
そもそも、Glaze も Nightshade もAI学習を阻害するものではない。学習したモデルをぶっ壊す毒なのである(poisoned って書いてあるでしょう?!)
相手に食わせなければ意味がないんだ。Glazeかけたとか自分で言うな。対策されるでしょう?(後述)
それと他の人に強要する意味はない。使いたい人が使えば十分なんだ。
事実すでに効果は上がっていてOpenAIは悲鳴をあげ対策を急いでいる。
反AIさんの考えるよりも Glaze/Nightshade はずっと強力だ。それはデータセットを汚染する攻撃である。簡単に言えば Nightshadeは「学習中に他の絵に変換されてしまう」ノイズをかける。この操作を毒入り(poisoned)と呼ぶ。ピクセル毎の微小な変更なので Nightshade をかけた後もイラストはぱっと見はかわらない。
Nightshadeを使って例えば 犬の画像を猫の画像になるノイズをかけたとする。するとAIは犬と猫が混ざったまま学習を進め「犬」と言う概念が無茶苦茶になってしまう。
図:毒入りモデルの変化 (arXiv:2310.13828から引用)
上の図は毒入りの画像を200枚食わせたときの変化の様子だ。犬が猫になってしまっている。それだけではなく”犬”に近い概念、”子犬”、”ハスキー”、”狼”もぐちゃぐちゃになっている。
図:毒入り枚数による変化 (同引用)
こちらは50、100、300、と毒入り枚数を変化させたときの様子。50枚の時点ですでにめちゃくちゃになっている。
もし私が反AIだったなら、イラストに Nightshadeをかけて danbooru に投稿するだろう。二次元イラスト特化の画像生成AIはdanbooru2021/ danbooru2022 などのデータセットを使っているものと見られる。これらはイラスト投稿サイトdanbooru から収集したものである。
ところで Glaze も Nightshade もその内部で画像生成AIを使っているということを知ったら反AIさんはどんな顔をするだろう?
Glaze は特徴量抽出を行う。おそらく Stable Diffusion の VAE(Variational Autoencoder)を使っている。そしてNightshade の方も 内部ではStable Diffusion 等の画像生成モデルを用いて別の画像を生成する。
Glaze が機能しない?あるいは解毒方法が見つかったかもしれない
上のスレッドのコメント欄では Glaze が論文のようには機能しないことについて議論され「画像のリサイズをしたのではないか」と予想している。Glazeをかけた後に画像を縮小、データが圧縮されてノイズ効果が消えたのではないかということだ。
A) 絵師さんが Glaze をかけたあと画像を縮小した可能性
B) 画像サイズやファイルタイプによってはプラットフォーム側が勝手に加工をする
C) 学習の際にリサイズを行う (Stable Difusion XL では1024px, 古いモデルは512px)
A,B については絵師さん側に知識があれば対処可能だけれども C の方はなんともし難い。小さい画像を投稿したところで [縮小→拡大] でノイズは落とせそうだ(解像度は悪くなるだろうが)
LAIONは収集画像そのものを所有せず、データセットはウェブ上にある画像のurlとタグをまとめた物であるらしい。
ということは、LAIONの新しいデータセットが公開されたタイミングで画像のurlを変更すれば学習に使われることを回避できそうだ。特に、個人サイト/ブログの所有者ならば古い url に●んこ画像でも差し替えておけば嫌がらせになる。(タグ差し替えはこのグラフの Simple Attak に相当)
90年代においては画像に直リンクされたときの報復としてうん●画像に差し替えたものです。まさか令和になっても有効とはね
この記事をぼちぼち書いているいるうちに2日が経過した。今、私のXのタイムラインもおすすめもとても静かだ。攻撃的な人たちやデマに流されやすい人達は皆どこかに行ってしまったようだ。残ったのはこれまで静かにイラストを描き続けてきた人たちでとても穏やかな空気が流れている。ずっとこのままがいい。
【感想】
↓
↓
↓
ボールペンで記入
↓
↓
↓
↓
この流れなんなん?誰がうれしいの?
【やったこと詳細】
・「通知書等」をクリックする
・「通知書等選択」プルダウンから「住宅借入金等特別控除証明書」を選択する
・「切替」をクリックする
・表示された表の「令和6年分」あたりをクリックする
・「この「年末調整のための住宅借入金等特別控除証明書」を印刷したものは使用できません。」の文言を見つけて絶望する
・「QRコード付証明書等作成システム」でGoogle検索する
・「QRコード付証明書等作成システムについて」ページにたどり着く
・「環境チェック」モーダルのブラウザ欄の「推奨環境外です」の表示に絶望する
・Safariで開き直す
・Macintoshをご利用の方の「事前準備セットアップ(Macintosh/safari用(dmg形式:約2MB)」をクリックする
・ダウンロードフォルダの「cpsMac.dmg」をダブルクリックする
・QRInstall.pkgをダブルクリックする
・「アクセス許可を要求しています」ダイアログで「許可」をクリックする
・「Safariブラウザが起動されているため、インストールを完了することができませんでした」の表示に絶望する
・「ゴミ箱に入れますか?」で「残す」をクリックする(危ないやろこれ)
・Safariを終了して再びインストーラーを起動してインストール完了する
・「QRコード付証明書等作成システムについて」ページを表示する
・「環境チェック」モーダルのブラウザ欄の△表示を無視する(Safari 18.0は対象外らしい)
・「次へ」をクリックする
・e-Taxからダウンロードしておいた「令和6年分住宅借入金等特別控除証明書_2024mmdd.xml」をアップロードする
・PDF作成が完了しましたダイアログの「表示」をクリックする
・「2年目以降の住宅ローン控除(住宅借入金等特別控除)の申告はありますか?」で「はい」を選択し「次へ」をクリックする
・「直接入力する(自動計算の対象外)」を選択して「次へ」をクリックする
・「住宅借入金等特別控除区分」で「◯年中居住者・認定住宅(等)用」を選択する
・アッ、これ(住宅借入金等特別控除申告書)、自分で計算してボールペンで書かないといかんの?
・ボールペンで書いた
・画像をアップロードしようとするがHEICなので選択できない
・Preview > File > ExportからPNGに変換する
・アップロードするが「ファイルサイズは最大5MBです」エラーになる
・Preview > File > ExportからJPEGに変換する
次回「証券番号がわからない」「保険料控除証明書の電子ファイル(XMLファイル)取得に1日待たされる」
ぜってぇ見てくれよな!!!
画像を生成するAIによる無断学習や利用を防ぐために、以下のような対抗手段を講じることが可能です。
1.透かし(ウォーターマーク)の埋め込み:
画像に目に見えるまたは見えない透かしを入れることで、無断利用や生成AIの学習に対して抑止効果を期待できます。特に、目に見えない形で画像データに暗号的な透かしを埋め込む「デジタル透かし」技術が有効です。
画像データに著作権情報や「AIによる無断学習を禁止する」といったメタデータを埋め込み、ウェブサイトには robots.txt ファイルで画像クローラーのアクセスをブロックする設定を追加します。これにより、クローリングや収集の抑制が期待できます。
ステガノグラフィを用いて、画像に気づかれにくい形で識別情報を隠すこともできます。これにより、画像の流出経路や利用先を追跡でき、無断利用の発見に役立てることができます。
4.法的な警告表示や利用ポリシーの明示:
ウェブサイトや画像の配布先に、AIによる無断利用や学習を禁止する旨の法的警告や利用ポリシーを明示することも有効です。利用条件をはっきりと示すことで、AI企業や研究者が慎重になる可能性が高まります。
AIが利用しにくいように、画像に人間には気づきにくいパターンやノイズを挿入する技術もあります。たとえば、AIにはノイズとして認識されるが、人間には問題なく見える小さな変形やカラーパターンを追加することで、AIによるデータ学習が困難になる場合があります。
生成AIの学習を混乱させるための手段には、以下のような方法が考えられます。
1.ノイズや歪みの追加:
画像に目立たない程度のノイズや歪みを加えることで、アノテーションモデルが境界や特徴を正確に認識しにくくする手法です。たとえば、ピクセルレベルでランダムなノイズを追加する、わずかに画像をぼかす、あるいは境界線付近に小さな変化を加えるといった手法が有効です。
アノテーション処理は、対象物の輪郭や特徴を正確に捉えることが重要です。そのため、背景や対象物の輪郭にわずかな不規則性を加えることで、アノテーションツールが対象物の境界を正確に判断しにくくすることができます。たとえば、背景に模様や偽の輪郭を挿入する方法です。
画像に人間には視認しづらい形でテキストやラベルを埋め込むと、AIのアノテーションプロセスが混乱する場合があります。これにより、AIが意図しない領域を注視することがあり、誤認識を誘発します。
4.色や明るさのランダム変化:
画像の色や明るさを部分的に変化させ、一定のパターンを持たないようにすることもアノテーション処理の混乱を招く一手です。これは、オブジェクトの検出や認識が色や明暗の差異に依存している場合に有効です。
5.擬似的なオブジェクトの追加:
画像内に小さな擬似的なオブジェクトや模様を追加することで、AIがそれらを誤って主要なオブジェクトと認識し、アノテーション精度が低下する可能性があります。特に、背景に似たオブジェクトを散りばめることで、AIはどの部分が対象なのか判断しにくくなります。
AIの認識を誤らせるために用いられる「アドバーサリアル(敵対的)な例」を使う方法もあります。特定のピクセルパターンや色の配列を配置することで、AIのアノテーションが意図的に誤作動するよう誘導できます。この技術は深層学習モデルに対して特に効果があります。
画像全体にわずかなカモフラージュパターンを重ねることで、AIの認識を混乱させる方法です。この手法では、人間が見た場合には問題なく認識できるものの、AIが対象を捉える際に誤って検出するようなパターンを画像に追加します。
・思考実験として、danbooruなどアノテーションの元データとして使われているサイトのタグが荒られたら画像生成AIのモデル作成にダメージはありますか?
思考実験として、Danbooruといったアノテーション元データのタグが荒らされた場合、画像生成AIのモデル作成に与える影響は以下の通りです。
Danbooruは、イラストや画像に対して詳細なタグが付与されており、これらのタグ情報は画像生成AIの学習にとって非常に重要です。タグが荒らされることで、画像とタグの対応関係が崩れ、モデルが正確な特徴を捉えにくくなるため、生成精度が低下します。
例えば、特定のキャラクターやテーマに関連するタグが荒らされ、誤った内容のタグが付与されると、モデルはその誤った情報を学習し、キャラクターの特徴や設定が再現されにくくなる可能性があります。
タグが荒らされると、モデルの訓練にノイズデータが増えるため、学習効率が悪化します。たとえば、「黒髪」のタグが誤って「金髪」などに変更された場合、モデルは同じ画像に対して異なる特徴を学習することになり、結果として生成画像の一貫性が失われることが考えられます。
また、同じ画像に異なるタグが付与されることで、モデルが過学習や誤学習を引き起こし、生成された画像が本来の意図からかけ離れたものになる可能性もあります。
Danbooruでは、特定のキャラクターやアートスタイルを識別するタグが多く存在します。これらが荒らされると、特定のキャラクターやスタイルのデータが混乱し、モデルが正確にキャラクターの特徴を把握できなくなるため、ユーザーが期待する生成結果が得られにくくなります。
例えば、あるキャラクターのタグが「髪型」「服装」「色彩」などで荒らされると、そのキャラクターの再現が曖昧になり、モデルが正しいビジュアルを生成できなくなることがあります。
タグが荒らされると、データセット全体の信頼性が低下します。信頼性の低いデータをもとに学習したモデルは、特定の条件で異常な出力を生成することが多くなり、モデル全体の品質が低下します。これは、生成AIが学習中に「どの情報を信頼すべきか」を判断できなくなるため、生成結果が不安定になったり、多様性が失われたりすることが考えられます。
AIモデルを利用するユーザーは、タグを通じて希望する画像を生成したり、条件に合った画像を探します。タグが荒らされると、AIモデルの検索・フィルタリング機能の精度も低下し、生成プロンプトが期待通りに機能しなくなる可能性があります。たとえば、「風景」タグが荒らされ、異なるジャンルの画像が混入するようになると、風景画像を生成したいユーザーの要求が満たされにくくなります。
Danbooruなどのタグが大規模に荒らされた場合、生成AIモデルの精度低下や一貫性の欠如が発生しやすくなり、特にキャラクターや特定のスタイルに依存する画像生成モデルに大きなダメージを与える可能性が高いです。
すでに学習済みのモデルを使って汚染されたデータのクレンジングや異常値検出を行うなど対策される可能性がありますが、それらを阻害する手段はありますか?
無断での学習を妨害し、学習コストを増加させるために、上記の方法を阻害する手法には以下のようなアイデアがあります。これらの手法は、意図的にデータセットの品質や一貫性を崩すことで、学習モデルの精度を低下させ、データクレンジングや異常値検出のプロセスを複雑化することが目的です。
意図的に誤ったタグや無関係なタグを画像データに付与し、データセットの信頼性を低下させます。これにより、転移学習やラベルノイズ検出が困難になり、正確な特徴量を学習するコストが増加します。
例えば、キャラクター画像に全く無関係なタグ(「動物」や「風景」など)を追加することで、モデルがどのタグが信頼できるか判別しにくくなり、誤ったラベルがノイズとして学習されるリスクが増えます。
2. 特徴量をぼかす/微妙な変更を加える
特徴量ベースのクレンジングや類似度分析に影響を与えるため、画像の特徴がわずかに異なるように加工を施します。具体的には、色調を微妙に変える、ランダムなピクセルの位置でノイズを追加する、または特定の部位を意図的にぼかすことで、モデルが抽出する特徴量の安定性を低下させます。
この方法により、同じキャラクターやスタイルであっても類似度分析が困難になり、正確なクレンジングが行いにくくなるため、データ処理のコストが増加します。
特徴が異なるバリエーションや擬似的な異常データを大量に追加することで、異常検出アルゴリズムの信頼性を下げます。たとえば、キャラクターのデザインや背景を少しずつ変えた画像を意図的に作成することで、異常値検出が頻繁に誤検出されるようにします。
こうしたデータが混在することで、オートエンコーダーやアンサンブルモデルを使った異常検出が混乱し、正確な異常サンプルの抽出が困難になります。
4. 高頻度で微小なラベル変更を行う
学習済みモデルの転移学習やラベルノイズ検出を阻害するために、同じ画像に対してラベルを定期的に変える手法です。微小な変更を行うことで、モデルは正しいラベルを安定的に学習することが難しくなり、モデルの信頼性が低下します。
例えば、ラベル「黒髪」を「暗めの髪」や「濃い色の髪」などに頻繁に切り替えることで、学習に不確実性を持ち込むことが可能です。
データセット内で非常に類似した画像を複数の異なるタグで登録することで、モデルの学習を混乱させます。特定のキャラクター画像を少しずつ変化させて複数のタグを付けると、モデルは「どのタグがどの特徴に対応しているのか」を判別しにくくなり、データセットのクレンジングが複雑化します。
特に、タグの一貫性が失われるため、類似度分析やアンサンブルモデルによる異常検出の効果を低下させることが期待できます。
AIモデルが認識を混乱させるように、アドバーサリアルノイズ(敵対的な例)を追加します。人間にはほとんど気づかれないレベルのノイズを画像に追加し、モデルが特定の特徴を正確に認識できないようにすることができます。
このノイズにより、モデルの特徴量ベースの学習が混乱し、意図した通りに学習できないため、クレンジングの精度も低下し、データ処理の手間が増加します。
特定のルールではなくランダムにタグをつけたり、特定のカテゴリ間でランダムにラベルを入れ替える方法です。これにより、ラベルと画像の関連性が薄れ、アノテーションの一貫性が失われます。この乱数による偽ラベルの付与は、ラベルノイズ検出やアノマリー検出において、真のラベルを見極めるコストを大幅に増加させます。
まとめ
これらの手法は、AIの学習やクレンジングを意図的に妨害し、無断学習にかかるコストを増加させるために有効です。特に、「微小な変更」や「アドバーサリアルノイズの付与」といった手法は、見た目の品質に影響を与えずにモデルにノイズを持ち込むため、非常に効果的です。
https://newsdig.tbs.co.jp/articles/bss/1526011?display=1
合同捜査本部では、男は匿名・流動型犯罪グループいわゆる「トクリュウ」の指示役であるとともに犯行に使うスマホの供給役とみて、そのほかの事件への関与についても捜査を続けています。
また、男の関係先のマンションからは、スマホ752台、デスクトップパソコン1台、ワイファイルーター2台を押収していて、ここを拠点に不正に入手したクレジットカードの情報をスマホに登録する作業をしていたとみられています。
JPOPにも洋楽にもさして興味がなかったワイが知っとるミニアルバムはめっちゃ少ないで。
中高生の頃、ポケモンのカスミ役の声優さんやった飯塚雅弓さんのラジオにハマっとったから、それつながりで「Fly Ladybird fly」ってミニアルバムを買った記憶があって、それだけや。
クリスマスアルバムっちゅーことでそれっぽいテーマの曲が多くて、いつにもまして可愛らしさが前面に出てドキッとさせる、生活感のある感じの曲が詰まってたのが印象的やったな。
で、ほとんどの曲は長谷川智樹さんが作っとるんや。作編曲家として色んな人や作品に楽曲提供しとる人やな。
彼はスピッツの曲も手掛けた事があって、まさに増田の挙げとる「オーロラになれなかった人のために」も彼の編曲だったことを、今これを書きながら調べてるうちに本当に偶然気付いたわ。
話戻すと、このアルバムん中ではワイが好きなのは3曲目の風のKissって曲やな。この曲は作詞作曲はイズミカワソラさんのようで、長谷川さんは編曲だけみたいやな。
すごく透明感のある気楽な曲で、耳に残るから当時耳コピでMIDIファイルを打ち込みで作ってた記憶があるわ。ラジオテーマ曲だったからかシンプルな構成なのが逆にいいわ。
4,5,6曲目が長谷川さんの作曲・編曲で、確かに言われてみるとスピッツとも通じるところがありそうな枯れたギターの音が混ざりつつ、なんていうやろな?
多分この人の編曲は、ミニオーケストラみたいなちょっと広い感じの空気感を出すのが特徴なんやと思う。いやわからんけど聴き返してる感じではそう思ったわ。
今日、G検定を受験した。AIやディープラーニングに関するちょっと話題のやつだ。11月8日〜9日開催の2024年第6回。今回の試験から新シラバス(問題範囲)が適用で出題数が変更となる。
G検定は自宅受験可能な性質上、運営が不正行為禁止と言いながらもPCインカメラ監視や画面共有監視もなく受験者たちの間では公然とカンニングが行われていることで有名な試験だ。
IT系のAI試験だからGoogleやAIを使いこなすのも試験の一環だって?そんな屁理屈ありかよ。ありなんだよな。
SNSやnoteやqiitaの受験記を見てもそうだし、検索欄に「G検定」と入れると「カンペ/カンニング/チートシート」などが多数サジェストされることからも明らかだ。
そのため運営はカンペを一目見たり用語集をCtrl+Fで検索してすぐ解けるような一問一答的な出題を避けているという。問題文と選択肢は画像形式で出題されてコピペ不可。それくらいの抵抗はしてくる。
前回まで試験時間120分に対して出題数は公称200問程度だったが今回から160問へと変更され1問当たり時間が約30秒から45秒へと増えたのも、複雑な出題でカンニング潰しをしてやるという運営の意気込みが事前に感じられていた。
しかし運営の姿勢や自力で正々堂々と挑む他の受験者に悪いが不正受験者がいる以上は俺も乗っていくし、先端AI的な試験を受ける気概はあっても高度な自動回答環境を作れるスキルはない、そんなクズでカスの取ったスタイルを紹介する。
他の自宅受験系の資格試験にも流用できるだろう。こんな恥ずべき内容は他じゃ書けない。
ネット環境下でどこでも受験OKだが自宅がベター。広いテーブルがあるといい。カンニングしまくる以上そんな姿は人目に晒せない。会社や学校など知り合いのいる環境は論外だ。
出題内容が各人で同一であるなら仲間と結託してもいいがおそらく違うのではないか。
・PC類
頼みの綱。文字入力よりPC画面上の文字コピぺできない問題文をスマホで撮って画像入力するのがメイン。アップした画像内の文字を認識して回答できるタイプで事前に操作に慣れておく。
最近のAIならまあ対応可能だろう。性能の高い有料版に課金して安心をダメ押してもいい。世話になるのは本番2時間なのでお試し版でもいい。
俺はSoftBank系回線があれば1年タダの有料版Perplexityを普段使用しているのでこれ。
・テキスト類
シラバス(試験範囲)記載の用語が解説されたいわゆるチートシートはネットに落ちている。ブラウザで開くなりWord Excelファイルにするなり中身を検索できるようにしておく。
画像タイプでない中身が文字検索のできる試験対策の電子書籍や、テキストをそのまま書き起こしたような詳しい有料チートシートもあると心強い。
目次や索引の充実した、またはこの辺に書いてあると把握できてる読み慣れたリアル書籍もいい。
・その他
飲み物はすぐ飲めて倒してもこぼれにくいストロー付き紙パックなどがいい。
2時間の長丁場なので食べる余裕ありそうならお菓子などを用意してもいいし、アガるプレイリストを用意して音楽聴きながらやってもいい。
時計は受験画面内に常に残り時間がカウントダウンされているので不要。120分160問だから目安として残り100分時点で27問解いておきたい、80分で53問、60分で80問とメモっておくと焦った頭でもペースが掴める。
ノートPCを2台並べ、1台はブラウザで受験画面とAIを2画面表示、もう1台は簡素で一問一答的なシラバス用語のチートシートと詳細なテキスト状のチートシートを2画面表示。これはデスクトップとか1台のデカいモニターに並べてもいいだろう。
そしてスマホ2台でもAI。カメラとAIが使用できればタブレットでもいいだろう。これらを出題内容によって使い分ける。
自分の実力次第だが、用語や説明文見たら解けそうな問題はテキストからCtrl+Fで検索。AI先生に聞いた方が早そうなものはAIで。
AIに聞くのもPCタイピング入力、スマホフリック入力、出題文丸ごとをスマホで写真撮って画像認識のどれが早そうかを使い分ける。写真アップの場合は文字認識にやや時間がかかるだろう。その間に次の問題に行きそこでもAIに聞きたい場合に2台目のスマホで解いてもらう。待機時間や問題を行き来する時間は極力減らしたい。
計算問題は自力で解ける実力があってもAIに頼んで次の問題に行った方がおそらく早い。問題にはチェックマークつけて後で見返せるので1周終えてから検算してもいい。
Perplexityは画像認識での行列、サイコロ確率、期待値、畳み込み演算などを難なく正解した、はずだ。
今日の2日目受験だったが1日目受験者の感想をSNSで見ると今回からなかなか厄介に変更されているようで覚悟して挑んだ。
あまり勉強してないので過去出題や問題集との比較はできないのだが見て回ると今回は阿鼻叫喚の難易度らしい。カンニング跋扈に運営もキレたか。
問題プールの中から出題も順番もランダムに出題しているのか、同じ図表の穴埋め場所違いな問題が複数あったり、同じ用語の問われ方違いやほぼ似た感じの問題が複数あった。
勉強していればサービスだが勉強不足だと「似た問題を少し前に解いたけど自分が理解して解いたわけじゃないからまた探さなきゃ(またAIに解いてもらわなきゃ)」となり時間ロス。運営の戦略か?
試験は終了時間5分ほど残してとりあえず解き終えた。上記回答方法をスムーズにこなしてもかなりギリギリだった。
後から気付いたが問題画像を右クリック保存できるようにしたり最悪スクショした画像をブラウザAIに読ませた方が早いかもしれない。
感触はかなり良いが、AIに聞いた部分が正答できたのか全スクショして答え合わせしたわけでもないので合否不明。判明したら追記する。合否のみで得点開示されないのは残念。
AI先生の回答能力と画像認識力が上がりまくった現状、カンニングできちゃうIBT(自宅受験)はほぼお布施の価値しか無いだろう。最低限インカメラの目線監視や画面共有監視、CBT(近所の会場受験)でないと。