はてなキーワード: ジブリとは
原作もジブリ版も観たことないからかもしれないが、まぁ、これと言って嫌う理由もなくかといって褒めるでもない普通の映画だった
互いに夢を追うという過去の恋人との約束に囚われ、物理的にも才能的にも恋人との距離を感じている中、うまく行かない現実に苦しむ主人公が夢は諦めないけど過去と決別し、等身大の自分として夢を追い直す
といったストーリー
まぁわかりやすいし、夢を追う原動力だと思っていた彼の存在が実は枷だったという展開もありきたりではあるが、大抵そこで彼と別れた主人公が現実に帰るところを心新たに夢を追い続けるという展開は希望のある終わり方で良かった
のだが
なぜよりを戻す?
帰ってくるなよ
イタリアに骨を埋めろよ
おそらくこれはジブリ版のファンへのファンサービスというより配慮なのだろうが、ラストシーンは完全に蛇足だった
それで全てぶち壊しされたまである
ただ、とりあえずラストシーンは主人公というか宮崎駿の妄想ということにして、その前のシーンまでを本編として普通の映画という評価を下した
だいたい有名どころは見たかなって感じで面白かったのは以下の通り
・イデオン 発動編
・宝島
・劇場版じゃりんこチエ
・エヴァ
・ナディア
できれば劇場版のアニメがいいすね、アニメ業界でよく名前が上がる3人の御大達の作品はだいたい見ました。
出崎監督はガンバの冒険とかあしたのジョーも見てますがあんまりハマらなかったです。宝島とエースを狙え!は面白かったですね。特に宝島は全く期待してなかったですが、王道的な冒険者モノで気持ちいい潮風が吹き抜けるようによかったすね。
基本日本製のアニメで面白いアニメがあれば紹介してほしいです。海外製のアニメはディズニーぐらいしか観てないですがそこまで手を広げるとキリがないので…絶対これを見なきゃ後悔する!ってレベルでしたら別に海外製でもいいですよ。
https://anond.hatelabo.jp/20220829193650
https://togetter.com/li/1937447
自分に被害がないと思うとマウント取りに行く相変わらずのはてブよ。とげの後半の議論をあまりよんでいない気がするのだけれど。
https://www.bunka.go.jp/seisaku/chosakuken/hokaisei/h30_hokaisei/
機械学習は良いとされているけれど、それを利用した成果物についてはそれほど明言されていない。
検索用のデーターベース構築やパターンマッチング用のデータのインプットととしての利用は想定されているが、そこから類似の成果物を生み出すまでは想定していないように見える。
一方で著作権はスタイル作風を保護しないというので、学習結果から同じ作風の作品を自動的に生み出せてしまうなら軽微な利用ではなくがっつり業務に影響してしまう。
という意味では機械学習での利用は許可するが、機会学習の結果が生み出す成果物に関する権利の制限はまだグレーゾーンだと思うんだよなぁ。
ディズニー風/ジブリ風を自動生成してつかうのは本当に許されるの?とあるイラストレーターの一枚絵から微妙にデザインを変えて任意の構図の絵を生成できるサービスは本当にフェアなの?
成果物の権利は世界で調整すべき範囲で、やらないから負けるではなく、やられて権利者が保護されないを世界と調整すべき案件。
機会学習自体NGは無理筋としても成果物の利用については考えることは無限にあるのに一方的にバカにしようとする風潮はいかがなものだろうか。
今話題の画像生成AIは、文字を入力として画像を生成するが、その文字列のことをpromptという。
自然言語でも生成出来るが、クオリティを上げるにはpromptを理解するしかない。
その参考文献として、DALL-E2 prompt bookというのがある。
アニメ風の画像を生成するのに、「In the style of Studio Ghibli」を入れれば良いと、日本語で検索すると出てくると思うが、
なんでジブリ?と思った人は居ないだろうか?
おそらくDALL-E2 prompt bookに書かれているので、それで試しているところから広まったのだろう。
さて自分が欲しい画像をどうやって表現するのかだが、DALL-E2 prompt bookを見ると、美術史とも呼べる単語が並んでいる。
Pixar、1990s Disney, cel shading辺りはわかるが、Mythological map、Fayum portraitなどなど。
アーティスト名についても、
「Inspired? Try Google's Arts & Culture Hub to find 13,000 more artists you can work with.」と
自分が生成したい画像が出てこなくて悩んでいるときに、誰と誰の画風を合わせればいいかや、どの美術カテゴリーに入っているか、
教養が試される。
映画やテレビのプロンプトをハックしろとDALL-E2 prompt bookには書かれてるいるが、これも教養の類だろう。
ファッションもそうだ。
stable diffusionを使って見ての感想
1つ目
膨大な数の画像さえ食わせれば絵が描けるようになるかだが、たしかに文字に対応した絵を描こうとするが、
部分部分でテイストが異なる物が混ざった感じになり、結果違和感につながっている。
「初音ミク」を入力した際に、粗い画像で、緑の長い髪の毛くらいは表示され、顔や手や服などは構成が崩れる。
ネット上に「初音ミク」のタグがついている画像は沢山あるが、テイストが色んなものが混ざっているからだと思う。
「ジブリ」でも作品は沢山あり、更にネット上に二次創作が沢山あるので、描くと曖昧さが残る。
「pixiv」も、テイストが色んな画像があるので、それっぽい塗の画像が出てくるが、目の書き方は人によって異なるので、表情が生成されない。
一方、「ミュシャ」のような、わかりやすい画家性があるものは、クオリティ高く合成できる。
2つ目
「手になにかを持っている」ようなのは、まだ出来ない。
例題にあるように、「馬に乗っている宇宙飛行士」」のように、まだ2枚の画像の合成でないと、実用に耐えられるクオリティではないのではないか。
アニメ絵を描こうとして、目や口も出てこないので、プロンプトに追加すると生成される。
生成されるが、バランスは崩れている。
AIとしては目の近くに口があることまでは学習出来ているが、顔の傾きに応じて、目の傾きが変わる、なんてことは学習出来てない。
なので福笑いのようになる。
3つ目