はてなキーワード: ピクセルとは
iPadが10.9インチで2,360 x 1,640ピクセル。264 PPIもあるのに
PCのモニタは13インチで1920 x 1080。169 PPIしかない
Jeff Bezos は悪名高きマイクロマネージャーだ。彼は Amazon の小売りサイトの1ピクセルまで管理する。彼は以前 Larry Tesler を雇った。 Apple の主任科学者で、たぶん世界で最も有名で尊敬される HCI エキスパートさ。そんでもって、 Jeff は Larry が言ったことを、 Larry が辞めるまで3年間無視し続けた。 Larry は大規模なユーザビリティ研究もやっただろうし、少しの疑いの余地も無く誰もそのひどいサイトを理解できないってことをデモしたに違いない。けれど、 Jeff は1ピクセルたりとも動かさせはしなかった。トップページにぎっちりつまった内容の1ピクセルたりともね。それらはまるで何百万という彼の貴重な子供達なのさ。けれど Larry はそうじゃなかった。
ツイッター上で好きだったイラストレーターさんや漫画家さん、絡んでもらってたフォロワーさん等々が続々AI規制派発言をするようになっていってて辛い。吐き出させてくれ…
SNS上で見かける規制派の意見がマジで理解できない。何あれ?
規制派が「これは絵描きの総意です!」みたいなノリで言ってることに全然共感できない。
あの人たちは自分の中の絵描き像が大事で、自分の想定するようなスタンスでない絵描きのこととか想定もしていないんだろうな。
インターネット上の主張は主語がデカくなりがちとは言え、「この属性の人たちはみんな同じ気持ち!」みたいな態度キツいっす。
私も趣味で描いてる絵描きだけどあの人たちと同じ考えは全然持てない。
絵画の著作物でとりわけアニメ調や漫画調の人物イラストを別格の存在と思っていそうって言うか…
規制派の人がよく訴えてる「絵は我が子のようなもの。機械学習にかけられることは我が子をミキサーにかけられるような気分になる」みたいな例え話に一ミリも共感できない。
何故なら私は私の描いた絵に対して生まれてこの方一度も我が子だとか思ったことがないので。
絵は絵じゃん。
自分の絵を見て「よく描けた」「好きだ」とか思うことはあっても「これは我が子だ」みたいな感覚は湧いたことがないのであれ系の例えに全然共感できない。
絵を描く人間がみんな自分の絵に対して「我が子」と認識すると思わないでほしい。
と言うか、私が今までネット上に公開した絵について機械学習された可能性があることについて私は特に何の感慨も抱いていないんだけど。
「ふーんそうなんだ」くらいにしか思えないって言うか…
何も思ってないことについて「絵描きは怒るべきだ!」みたいな圧を感じるの怠い。
怒ってないことに別に怒れないよ…
イラストであれ写真であれ、画像データである以上はピクセル一つ一つに色の情報が乗ってるだけって性質は引き剥がせないじゃないですか。
私は機械学習の技術的な仕組みとかよくわからないけど、あれは「『人間』というタグが付けられた画像ではこの色情報を持つピクセルの横にこの色情報を持つピクセルが配置されている傾向にある」みたいなデータ配列の偏向を学習してるだけなんじゃないの?理解が間違ってたらごめんね…
そう考えると生成AIが学習段階でやってることは別にコラージュでもミキサーでも単純な複製でもなくない?
いや、機械学習、データ解析の過程で複製が伴うとしてもそれは権利侵害に当たらないと規定しているのが著作権法なのだろうけど…(法律の理解がガバってたらすまん)
未だに「生成AIはコラージュだ」みたいな誤情報を信じている人がいるのよくわからん。
データ配列の偏り方を学習してるだけであって盗んでもいないし切り刻んでもミキサーしてもいないよ。
あと「権利上の問題がある」「著作権的に違法だ」みたいな主張も謎すぎ。
学習権みたいな権利は日本の著作権法には規定されてないと思うんだけど。
どこの国の法律を見て言ってるんだろう?
私が不勉強なだけで実は日本の法律に存在するとかだったらマジで教えてほしい。勉強したいから。
著作権って単語を「自分の作ったものを好き勝手されない権利」って雑に理解しているのか?
あらゆる形での他人の利用を拒否できる権利ではないと思うんだけど…
たぶん「著作権」って単語を相手が怯む魔法の言葉だと思って使ってるんだろうな…
「外国では集団訴訟されている問題のあるツールだ」みたいな訴えもよくわからん。
外国で起きた訴訟はその国での法律で争われるのであって、外国の裁判で出た判決が直ちに日本にも適用されるとか無くない?
日本でも新たな法が作られるとかの時には海外の事例も参考にはされる可能性もあるだろうけど、日本の外で起きている事柄を根拠に「日本も倣うべきだ」みたいなノリがよくわからん。
と言うか日本での訴訟があるなら是非知りたいんだけどどなたかご存知ないですか?
著作権路線で生成AIを責めるならSNSの運用もちゃんとしてほしい。
生成AIに反対している人のツイッターアカウントを見に行ったら、著作権が切れていなさそうな漫画の切り抜き画像や映画、アニメ、TV番組のスクショ画像を引用の要件を満たさずに投稿していたりするのを見て頭抱えた。
生成AIを他人の著作物を蔑ろにするものと主張しながら自分はバリバリに他人の著作物の権利侵害行為してるのはダブスタすぎるでしょ。
あとpic it upとかの「自分で描け」的な主張に本当に賛同できない。
もし仮に私が「自分で描け」的な思想に賛同したら、それはありがたくも私のイラスト素材を購入し使ってくださっている方々に対して失礼じゃないですか。
自分で描く力や時間がない時、描き方がわからない時とかにそういうツールを使うって点で考えれば、手描きのイラスト素材も画像生成AIも役割として変わらないじゃん。
求めるイラストを作るためのツールを適法に使うことを悪だとする思想には私は賛同できないです。
というか、「自分で描け」「手描き詐称するな」みたいなご意見をお持ちの方々は、職務著作という制作体制が存在することについてどういう理論でその意見との整合性を取ってるの?
要は、その絵を自分で描いていないのに自分が著作者だという名目でその絵を発表することを非難なさっているんですよね?
でも例えば、漫画家さんが作画アシスタントさんを雇用して漫画制作に参加してもらう…みたいな制作環境はよくあるわけじゃん。
で、そうやって漫画家さんが指示を出してアシスタントさんに描いてもらった背景や効果、モブ等々は漫画原稿の一部となり、最終的に漫画家さんの名義で漫画雑誌やwebページ、単行本の形で発表されるわけじゃん。
そうやって作品が発表される際に作品に表記されるのって漫画家さんの名前だけですよね?漫画家さんが自分で描いていない部分もあるのに。(時々単行本の本文内でアシスタント名を掲載されている場合もあるけど雑誌掲載時はその限りでないですし)
自分で描いていないのに自分の名義で発表するというケースはこういう漫画制作現場の例に限らず世に無数にある。
著作権法では職務著作という名目で一定の条件下でそれを可能にする規定もあるんですが、「自分で描け」「手描き詐称するな」みたいなご意見をお持ちの方々はその辺の法律とはどういう風にそのご意見との整合性を取ってるの?
「自分で描け」「手描き詐称するな」という主張を通すなら職務著作についても非難することにならない?
知ってる上であんなめちゃくちゃな主張を言っていたとしたら主張のロジックがガバガバすぎるでしょ…
生成AI使用者を盗人、犯罪者呼びするのもやめといた方がいいと思う。
お手持ちの画像データはご自身の画像フォルダやネット上のサーバーからひとりでになくなったりしてないでしょう?
マジでお手持ちのデバイスから画像データが盗まれて消えたとかならサイバー犯罪だと思うから警察とかに相談した方がいいですよ。
第一、ネット上にアップロードした絵を複製されることが嫌って言うならネット上に画像をアップロードしない方がいいと思うのですが…
誰かがネット上にアップした画像を他人がネットを介して閲覧する際にはその他人が使ってるデバイスにその画像データが複製されるのはネットの仕組みとして当たり前にあるって言うか…
インターネットってものがそういう仕組みをしていて、尚且つイラスト投稿サイトやSNS等を利用して画像をアップロードする際に「あなたがアップロードしたものはこういう風に使いますよ」って規約に同意した上でサービスを使っているわけじゃないですか。
適法かつ契約内容に則ってネット上にアップロードされたデータが使われることに対して盗人、犯罪者呼ばわりするのは筋違いじゃないか…?
と言うか、どんなに正当な怒りがあっても他人に対して暴言を言うのは誹謗中傷とか侮辱になる可能性があるからやめといた方がいいですよ。
特定のイラストレーター風のLoRAが作られるのが嫌って気持ちも分からなくはないけど、絵柄や作風ってものには著作権の保護は及ばないし…
と言うか絵柄や作風にまで著作権を及ばせようとする規制派の主張は怖いっす。
著作(財産)権は著作権者の死後70年も効力を発揮する強力な権利じゃないですか。(団体名義での公表であれば公表後70年だけど)
そんなに長い期間似たような作風、絵柄での作品制作を規制するのはだいぶ無理筋では?
制作過程にAIを使用してもしなくても私は自由に絵を描きたいよ。
絵柄や作風にまで著作権の保護を及ばせようとする意見には賛同できないっす。
いわゆるimage to imageの手法でご自身のイラストが加工されたことに関しては、加工の結果の生成物が依拠性と類似性があると判断できるならば複製権等の侵害として使用の差止請求や損害賠償請求をすればいいのでは…?
そうした上で使用をやめてくれないのであれば裁判しかないかなぁとは思うのだけど…
裁判費用に関するカンパとかするなら私も多少は出すから裁判頑張ってほしい。
頑張って!頼む!
規制派の人たちって、法律やAI、普段自分が使っているネットやデジタルツールの仕組みへの無知と無理解から、新技術に対して不安や不快感を抱いている印象がある。
自分の作品を守りたいという気持ちがあるのなら、法律では自分たちにどのように権利が与えられ保護されているのかや、自分たちが普段使ってるツールや技術がどんな仕組みをしてるかについて知っておいた方がいいよ。
文化庁のホームページなら無料でそれ系の知識を漁れるし、もっと体系的に知りたいなら知的財産管理技能検定のテキストを読むのとかおすすめ。3級なら内容もだいぶ簡単だし。
つーかこの1年程SNS上で見てきた規制派のプロのイラストレーターさんやプロの漫画家さんたちが著作権法に関する基礎的な理解も無さそうな様子にぶっちゃけかなり驚いている。
プロでしょ?
我が子とか魂に例える程に大事なんでしょ?
グレイズとかえまもりってサービスの提供するノイズフィルターがあるらしいじゃん。
そのノイズフィルターかけてない画像をネット上にアップロードする行為を「(これをしていないと)あなたも無断学習による加害行為の加担者になります」みたいな非難を規制派の誰かがツイートしてるの見てだいぶキツかった。
私は自分で考えた上で別にそういうフィルターかけなくても問題ないと思ってるからノイズフィルターかけてないだけなんですけど。
それを加害への加担?はあ?言い掛かりすぎない?
前述したように私はネット上に自分がアップロードしたものが機械学習されようが特に何も思わないし、仮に機械学習されたくなかったとしても、元画像が肉眼で容易に判別できる程度のうっすらしたノイズをかけたくらいで機械学習防止の効果があるとは思えなかったからノイズ加工してないだけなんですけど。
効果があると信じてご自身でご自身の画像にご使用になるのは何とも思わないけど、他人が自分と同じように行動していないことを加害への加担とか言うのは失礼すぎない?
してない人間にだってしてない人間なりの感情や考え方があるんだよ。
愚痴だいたい書き終わったな。
彼らの思想では私のような絵描きがいることは想定されてないっぽいし。
何が嫌かって、私自身が何も思ってないし問題視もしてない物事について絵描きって属性だけで雑に規制派陣営から味方認定されて同士として振る舞え的な圧が感じられるのが嫌。
規制派の言ってることは創作の自由度を狭めることに繋がると思う。
この1年ちょっとで好きなイラストレーターさんや漫画家さんが続々そっち方面になってしまったのは本当に心の底から残念。悲しい。
私は「適法であったり個別に結んだ契約等に反しない範囲であるなら自由に好きにどんなツールを使って描いてもいいじゃん」ってスタンスの絵描きです。
だからこそ、自分の描いたイラストが誰かの役に立てばいいなって思ってイラスト素材の販売もしているのだし。
生成AIの登場や広まりに特に何も反対してない絵描きもいるってのだけ覚えていってもらえれば…
まぁこんな場所で匿名で愚痴ってるのは規制派によるネットリンチが怖いからなんだけどさ。
自由に好きなツールを使って絵を描いて公開してもネットリンチを受ける心配のない世の中になってほしいよほんと。
長々と書いたけど私も法律とか技術的な知識をその道のプロほど十分に知っているわけではないです。
技術や法律に関する記述が間違ってたり不足してるなって思ったら適当にコメントしてください。拝読いたします。
私もまだまだ勉強したいんで。
KASEDO GamesとはWarhammer 40000 Mechanicusで成功し
別名にはしてるがイーロン・マスクを黒幕にしたSFナラティブサバイバルシミュレーションIXIONをリリースした
知る人ぞ知るゲームメーカー。Factorioとかフロストパンクとかが刺さる人にはゴリゴリに刺さる硬派なメーカーだ。
ちなみに楽曲を手掛けるGuillaume Davidは無名の新人であるにも関わらずハンス・ジマー顔負けのクオリティの高い曲を提供しておりファンも多い。
そんなKASEDO Gamesの新作はカジュアルパズルアクション。しかもグラがピクセルアート。
フリーダムすぎるだろKASEDO Games
アマゾンのブラックフライデーセールでピクセルウォッチ1が安くなっていたので買ってみた。
タッチ決済便利そうだなというのと先日リリースされたpip-boyデザインのインターフェース(テレビゲーム「fallout」シリーズで出てくる腕時計型ガジェット)に惹かれてしまった。
便利!ってなることもあったり、は?ってなることもあったのでこれから買おうとしている人の参考になればと思って書き残す。
2万5千円くらい出して買ってよかったかどうかについては、良かったとも言えないし失敗したとも言い切れないレベルだと思っている。
・持ち物管理が楽になった
今回スマートウォッチの導入を検討した一番の理由としては、買い物や移動のときに財布からカードもしくはどこかのポケットからカードケース出してというモタモタした手順を省きたいと思ったところであった。また、キャッシュレスタッチ決済をスマートウォッチに集約することで管理しなければいけない持ち物を減らし忘れ物を無くしたいという目的もあった。
pixel watchはgoogleペイ対応の上、suica機能も付けられるため、キャッシュレスタッチ決済が使えるシチュエーションでは金払う→腕時計を端末に寄せるという手順で済ませられるというメリットは非常に魅力的で、実際スマートウォッチ導入後は身軽に外出できるようになった。
・通知機能が思いのほか便利
使って見てスマホに来た各種通知をすぐに確認できるのは思いのほか楽なことを思い知った。メッセージ系の通知を確認できるのはもちろん、片手にスケジュール管理機能の出張所があるのは非常に便利で、スマホを使ってスケジュール管理している人には手放せなくなるアイテムといっても過言でもないだろう。
着用したまま寝ていると睡眠時のコンディションが見られるという事でやってみたところ、実際にデータが出てきており感動した。フーン程度にしか思っていなかった機能だが実際にやってみたら案外面白いものである。
どういうメカニズムでデータを採っていてどの程度信頼性があるものかはさておき、寝不足と感じるときとそうでない時を比較することで自分に適した睡眠導入ルーチンを作り効率的に回復できたらいいなと思っている。
・操作性
これはまあ当たり前すぎて仕方がないもので許容しているつもりではあるが、やっぱり操作性が悪い。
スマートウォッチからの入力は出てくるキーパッドか音声入力かとなるがいずれも操作性や反応、シチュエーションによる入力の制限がかかるのでスマートウォッチは基本スマートフォンに入力しているものもしくは出力されたものを確認するツールとして扱うべきなのだろう。
厳密にはピクセルカメラをpixel watch、google pixel両方に導入することで純正リモートカメラ機能は使うことができるようだ。逆に言うとpixelカメラを導入できないスマホ以外は現状使うことができない。自分の中では一番「は?」となった部分。
今年9月まではgoogleカメラという形でplayストアからインストールできたようだが12月現在は消え去っており非常にやきもきしている。
バッタもんのカメラリモートアプリを使うことでリモートカメラ機能は使えるが動作がぎこちなかったり広告が出たり見た目が雑だったりと異物感が強い。田舎暮らしでスポーツサークルをやっている自分の現状の生活だとタッチ決済以上に使う機能なのでこの躓きは個人的にかなり痛い。
pixelカメラではない現行機種androidユーザー全員が使えるgoogleカメラアプリを再リリースしてもらうか、wearOS用のカメラ操作アプリをリリースしてほしい。
届いたスマートウォッチのセッティングを手早く済ませ、鼻の穴を膨らませながら近くの商店でタッチ決済してみたところ接触が悪くカードを出すのと同じくらい時間がかかってしまった。といいつつも財布出さなくていいことに体の軽量化を感じたが、画面を当てまくっているとそのうち液晶が傷だらけになりそうなのはふと気になった。まあカバー付けているので気になったらカバー変えればいい話ではある。
また、スマートウォッチの位置から来るリーチの足りなさに使いにくさを感じた。おそらく自分の周りにあるお店のレジ機能の構造が手を伸ばしてお金を置く、カードを当てるという距離感になっておりスマートウォッチが付いている手首の位置だと決済機の位置まで微妙に届かず腰を曲げたり屈んだりと調整が必要なことが多々あることに「思ってたんと違う」となってしまった。
ド田舎暮らしのため上のようなシチュエーションにぶつかっているが都心部であればスマートウォッチ決済がしやすい構造のお店も多そう。
まあこの問題はスマートウォッチでのタッチ決済という動きに慣れたら解決しそうな部分である。
便利になった部分は非常に多い。しかしスマートウォッチのほとんどの機能はスマホを出せば問題ないわけで、スマートウォッチを導入すればみんながみんな楽になるとも限らない感じはする。
自分の場合はなんとなくで導入したので新しいガジェット!というワクワク感による買って良かった補正は受けているが、冷静にありがたみがあるかと言われると考え込んでしまう。睡眠データや心拍数データとかfit系アプリを上手に使っていったらメリットが増えていきそうな気もするが。
絵師がAIに懸念持つのは当たり前だと思うんだけど、SNSで「アンチ活動」やってる絵師のイラスト観に行くと大体2次エロ。しかも絵のクオリティが下手ってわけではないが上手いわけでもない
何でパターンみたいになってんだろうなって思ったけど、この人たち絵を描くのそんなに好きじゃないんだろうなって思う。自分のオカズが欲しくて描き始めたタイプで、描ける絵のクオリティが一定ライン超えると、自分の性欲に学習のコストが見合わなくなるからそこそこの画力に落ち着くし、パースとかデッサンとか歪なのにおっぱいの描き込みだけめっちゃ細かい
でこういう人たちにとって「いい感じにオカズを生成してくれるAI」ってのはまさに今までやってきたことの全否定なんだと思う。正直無断学習とか著作権とかどうでもよくて、「今まで自分がやってきたことは何だったんだ」っていう怨嗟なんだろうなと
繰り返すけど、どんな絵師でも生成AIに懸念を抱くことはおかしくないと思う。でも狂ってるレベルまでいってる人は大概このパターンじゃないかなと
自分もお絵描き練習中で、捻りのないAI絵がピクシブに並んでる光景とかは反吐が出るんだけど、AIそのものはそんなに恐怖感がない。単純に描くのが楽しくて描いてるし、もっと上手くなりたいし、ピクセル情報食っただけでこっちがやりたいことできるわけないから勝手にやってろって思う
正直一次やってる人とか、インターネットお絵描きマンじゃない「アート」やってる人から見れば、AIぐらいで筆折るならさっさと折れって思ってる人結構いるんじゃないかな。自分はそこまで強い表現じゃないけど、承認欲求獲得手段や商品としてコモディティ化したイラストなんて自分には必要ないかなとは思うし、インターネットできる前から、さらに言えばイラストレーターが職業として成立する前から描きたい人は黙々と描いてるし、まあ本当に絵が好きな人だけが描き続ければいいんじゃないかなとは思う
音楽が本当に素晴らしく、変なアレンジがなくて原曲がそのままフルオケになった感じである。
この2年間、ゲーム配信者で、FF3ピクリマをクリアした人を何十人も見てきた。
みんなクリア後にジュークボックス機能でBGMを聴き直して余韻にひたっている。
「FF3よかったよなあ・・・」みたいなつぶやきを配信者がしているのを見て、本当にゲームにとって音楽の力ってすごいんだなと思う。
ぜんぶおすすめだが、「悠久の風(フィールド)」「飛空艇インビジブルのテーマ」はとくに良い。
(追記)アレンジャー19人も参加してて、フルオケの交響楽団も参加してた。
最近、ゲームのスクショを見てソシャゲかなと思ったら据置コンシューマゲーだったり、コンシューマを遊んでる時に何となくスマホっぽく感じることが増えた。
デザインに対して無知なので、どこからそう感じるか言語化できないのでだれか言語化してくれ。あとなぜこうなるのかも解説してくれ。
たとえばアトラスとヴァニラヴェアが、PS5と4とスイッチと箱で、9000円近くで出すというユニコーンオーバーロードなんだけど、スクショだけ見た時にソシャゲなのかと思った。特に地域SLGみたいな画面がそれっぽい。
https://news.denfaminicogamer.jp/news/230921e
あとこないだパラノマサイトを遊んで、めちゃくちゃ面白かったんだけど、どことなくUIにスマホゲーっぽさを感じた。(推理ADVなのでゲームシステムは全然違う)
UI……UIって言葉でいいかわからんが、最近のゲームのUIがスマホゲー的に感じられる原因と、なぜそういうデザインを採用するかの理由が知りたい、教えてくれ。
ユニコーンオーバーロードのキャラ絵もだし、FFのピクセルリマスターで文字ウィンドウやフォントがキレイすぎると言われていた(SwitchとPS4への更なる移植ではフォントを変更可能にしたらしい)。
・UIの装飾は多かったりキラキラしてたりするのだがなぜか安っぽい。
・デイリーミッションとかありそうな、猛烈に多いクエスト画面(実際にデイリーの類がなくても)
・背景とキャラのなじみが悪いというか露骨に別レイヤーっぽいというか。更にキャラの中でも、部位や装備ごとにレイヤー違いそうだなと感じるとなおさら。
スパロボ30の戦闘ムービーなんか、あれだけ気合入っているのに、どうもパーツごとに動いてるようなスマホゲーっぽさを感じる。
Twitterで映像畑の人による「映像系に使用する画像で72dpi以上は必要がなく、事前に整理するのが当然なんだけど350dpiのままで作業する人がいた。基本が抜けてるなぁ」といったツイートを偶然目にしてしまい、以下これに関してつらつらと書いていく。
結論から書くと、WEB画像の解像度設定は72dpiだろうが350dpiだろうがなんでもよく、縦と横のピクセル数だけ見ていればよい。
<DPIとは?>
「印刷用解像度設定」といったメタデータと考えてもらって構わない。
簡単に説明すると、DPIとは、その画像をどれだけのキレイさで印刷するかという品質設定の単位である。
dot per inchの略であり、1インチにどれだけドットを敷き詰めるかをこの数値で設定する。
72dpiは1インチあたりに72ドット、350dpiは1インチあたり350ドット。ドットの数が多いほど密度が上がるので鮮明に見える。
要はパソコンのディスプレイ解像度と同じ。同じピクセル数の画像を72dpiの設定で印刷しようとすると大きく荒く出て、350dpiの設定で印刷すると小さくキレイに出る。
FHDの動画を27インチFHDモニターに等倍で再生すると全画面で再生されるが、27インチ4Kモニターの場合、画質は良いが拡大しないと小さいウインドウ内で再生されるイメージとおおよその構造は一緒。
一般に印刷用の画像データは350dpiにするのが理想とされている。
そのデータを映像制作に使用する際に、解像度設定をそのままにしている人に対する嘆きが冒頭のツイートにつながったのだろう。
DPIとは「印刷用解像度設定」のことなので、デジタルで表示・使用する場合、この数値は関係がない。
重要なのはピクセル数だ。1920×1080pxの画像があったとする。
デジタル上でなにが変わるか。
なにも変わらないのである。
画像の見た目も、容量も変わらない。カンバスサイズも変わらない。
実際に解像度の数値を変更した画像をブラウザで読み込んでみたところ、表示されるものは全て一様であった。
なお、Photoshop上で解像度の数値を変更する際、設定によっては解像度の数値の増減に合わせて縦横のピクセル数も増えたり減ったり(拡大縮小)するので、それによって画像のサイズが変わりはする。
ただそれはピクセル数の増減によってサイズが増減するということなので、例えば350dpiを72dpiにしたから画像が小さくなった、とは言えない。
ちなみにディスプレイ上ではDPIではなくPPIと呼ぶ。なぜならばDotではなくPixelだから。どうでもいい話ではあるが。
72ppiじゃないよね。iPadは264ppi、iPhoneは460ppiのものもあるよね。
「モニターは、72ppi!」というのはあまりにいにしえの知識と言える。
さらに言うと、ppiは画面解像度と画面の物理的なサイズによって算出される。だってper inchだもん。
例えば4kモニターでも31インチなら142ppi。20インチなら220ppiだ。同じ数ピクセルが詰まってるなら画面が小さい方が細かいでしょ。
というか、逆に言えば80インチの場合4Kと言ったって55ppiである。フルHDは28ppiだ。
最終的にエンコードする画面解像度、つまりフルHDなのか4Kなのかなどによって必要な素材のピクセル数は決まってくる。
しかしそこにdpiだのppiだのといった数値はもはや関係がない。ピクセル数を削れという話なのだから。
したがって、繰り返しになるがピクセル数だけ見ていればよい。
映像制作中においても、素材画像の解像度設定が350だろうが72だろうが、画質になんの違いも出ない。
制作後も最終的にはエンコードをするので元素材画像の解像度設定はガチのマジで関係がない。
素材データの受け渡しを考えても画像容量も変わらないので本当に意味がない。
つまり、WEB画像の解像度設定は350dpiだろうが72dpiだろうがなんでもよく、縦と横のピクセル数だけ見ていればよい。
※画像の解像度設定の数値がバラバラだと先方にナメられるから、とかはガチで知らん。しょーもないと思う。
なんというか、基本を知らないなあと言っている側が昔の作法からアップデートできていないだけでしたっていうのを見て色々と考えてしまったものである。
(もしなにか「いや違う!」といった指摘があったらください。)
<※IllustratorやPhotoshopなどにおいては>
これらのソフトの場合、解像度設定の異なる同じ画像をドキュメント内に配置した場合、配置された画像の大きさ(縦横サイズ)に違いが出る。
なぜならばこれらは印刷を前提としたソフトであり、また、ドキュメント自体に印刷解像度の設定がなされているからである。
なんとなくWEB画像の場合は72にしないと気持ちが悪い、といった場合は否定しないが、それはあくまで個人のこだわりなのでそうしない人を基本が抜けてるとかう〜んとか言うのはやめた方がいいと思いました。
(イラレ上で画像を拡大縮小してるのに元画像の解像度を350dpiにするのにこだわるような意味のなさ。拡大縮小してる時点で解像度は変わってるし、印刷所でRIPのときに均されるんだからさ※後述)
<デジタルはわかった。結局印刷の場合ってどうすればいいの?>
A4/350dpiに必要なピクセル数が約W2890H4090pxなのでそれくらいで良いのでは。
ちなみになぜ350dpiが良いとされているかというと、これ以上解像度を増やしても人間の目にはあまり区別がつかないとされていたり、印刷機の性能の事情などによってそうなっている。
ポスターなどは150〜200dpi程度あれば十分とされる。デカいものは近くで見ないし多少荒くて良いのだ。
抱き枕やタペストリーなどもそれくらい。近くで見るものだけど、布自体の目が粗いのでデータの解像度を上げてもあまり意味がない。滲むし。
(布の種類にはよるが……)
ポスターも先述の通り解像度自体落とすので相対的にピクセル数は変わらずA1/150dpiの場合約W3500H4960pxなので上記より少し増える程度。
抱き枕カバーのようにすごく縦長とかでもない限りざっくり縦横5000pxあればもう十分なのではと思う。
というか、素人の場合は印刷の場合もピクセル数だけ見ていれば良いと思う。
実際に印刷されるデータは印刷所でRIP(リップ/リッピング)といって、印刷用データに変換されるんだけど、そのときに印刷解像度はあらかじめ印刷所で設定された数値に変換されることがほとんどだろう。
だって必要な印刷解像度って印刷機の線数の2倍って言うし。ほらまた知らない単語が出てきた。入稿先の印刷機の線数なんて把握せずに解像度設定してるでしょ。普通は175lpiなんだって。LPI。Line per inchね。その2倍。だから350なんだね。知らないでしょ。だからいいんだよ。良きようにやってくれるんだから。
A4なのかB5なのかとにかく出力サイズがわかっていて、それに十分なピクセル数が足りていれば良い。あと塗り足しね。
変に知識をつけて画像解像度350dpiにしました! 仕上がりサイズはA4です!っていって縦横350pxみたいな画像が配置してあるデータ送られてきてもガビガビに印刷されるだけだよ。大事なのはピクセル数。覚えてこ。
例のプール付き公営公園で"健全"や"卑猥"という指針が出され、この指針に定数も定量も無いなぁと感じたのだけれど、それよりも気になったのが「18歳未満のグラビア撮影を禁止にしたらどうか?」という試み的な提言をされている方が結構居るのが気になった。
ざっくりわかりやすくいうと、人物をメインの被写体として撮影することをポートレート撮影と言うのだけれど「18歳未満のグラビア撮影を禁止にしたらどうか?」を試み的に提言している人はグラビア撮影とポートレート撮影をどうやって線引きするんだろうか?
個人的におそらくは無理だと思われる。
何故ならグラビア撮影はポートレート撮影という大きなジャンルに含まれる小ジャンルであり、ポートレート撮影の近接用語は景色を撮影する風景撮影や、香水瓶や人形やガジェットなどを撮る小物撮りなどであり、ポートレート撮影というのははてな界隈で言うところの主語デカ問題だからだ。
グラビア撮影はご存知の通り、別に水着や下着、肌面積の多い女性だけを撮るというものではなく、少年青年漫画雑誌の表紙もグラビア撮影だし、露出とは真逆にライダースーツを着込んでバイクにまたがっている人物を撮影するのもバイク雑誌ではグラビア撮影である(バイク界隈のグラビア撮影には峰不二子的な方向性もあるけれど全体で言えば少数派だ。何故なら峰不二子に比肩できる女性はそう居ないから)。
いや撮り鉄のように特定の被写体が好きな連中も居るけれど、実際のところ撮り鉄が列車ばかり撮ってるのか?と言われると大半の撮り鉄は主な被写体が列車なだけで、奴らは列車の無い風景も撮っているだろうし旅先のメシも撮っているはずだ。
カメコとしてイメージしやすいアイドルの追っかけだってそうだろう。何なら筆者には妻も子も居るし、筆者の主な被写体は妻と子である。妻と子で培った撮影経験をアイドルの撮影に応用していると言っても過言ではないだろう。それくらい妻と子を撮ってる。
カメコへ共通する特徴は何なのか?と言えば、キモデブでオタクなおっさんではなくカメラと撮影の知識だろう。カメコなんだからそりゃあカメラを趣味にしていない連中よりはちょっと詳しい。
近年じゃスマホカメラの性能があがり誰も彼もが気軽に写真を撮るようになったが、女の子をより可愛らしく綺麗に撮るという点ではスマホカメラってちょっと不向きだよなという印象をカメコならば誰しもが持っているだろう。
スマホカメラのレンズはいわゆる広角レンズが大半であり、広角レンズは歪みが大きくて太って写る。標準体型がデブになり、デブはよりデブになる。それがスマホカメラのレンズだ。
世の中にはポッチャリ好きが居るというのは非常に重要な指摘だが今回はそこを問題にはしていない。今の自分よりもスマホカメラは太って見えやすいということを問題視しているのだ。
じゃあどうするべきなのか?と言えばズームするわけだ。最近のスマホカメラは多眼になっているので最も拡大できる望遠レンズを選択して撮影する。
ポイントはデジタルズームは使わないことだな。デジタルズームは単に画像ピクセルを拡大しているだけなのでレンズの歪みに影響しないので意味がない。
望遠レンズは広角レンズと比較して歪みが少ないので、痩せて写るわけではないが広角レンズにように太って写りにくい。
まだ女の子を可愛らしく綺麗に撮るポイントはある。1枚の写真へ全身を収める場合は顔を中心にではなく腰を中心に撮るのだ。
顔を中心に撮るとレンズというのは多少なりとも歪みが発生し、レンズの中央はレンズの端へ向かって歪んでいくので顔がデカくなり首より下が小さく写る。
自分の顔がデカいと悩んでいる女の子が居るとしたらレンズの中央で撮るというのは更にコンプレックスを強調する結果となるわけだ。顔はレンズの端へ持っていけ。
更に良いことがある。腰をレンズの中心に添えることで、前述した歪みから腰の部分が多少広がり相対的に上半身と下半身が細くなる。つまり小顔足長になり女性らしい身体の曲線が強調される。
ほんの少し下から煽るように腰を中心に撮影すると小顔脚長効果が更に増すぞ。
胸が小さめなのが悩み?いや一部に需要あるぞ?えっそういうの良いから大きく写す方法を教えろ?
逆に広角レンズを使え!広角レンズは歪みが大きいため、広角レンズで胸を中心に据えて顔もレンズの端に写るように近接撮影しよう。相対的に胸デカ小顔の写真が撮れる。これは逆にスマホカメラが有利だな。
ここに書いた写真撮影術を使えばマッチングアプリのプロフィール写真とかもちょっとは印象良くなるんじゃないか?需要あるか知らんけど。
カメコはこういう知識がある。撮り鉄は主な被写体が列車なのでポートレート撮影の知識がアイドルカメコと比較すると少々乏しいだろうけど、このくらいは知っている。逆に撮り鉄は雄大な自然とか真っ直ぐなものを歪み少なく真っ直ぐ撮る方法とかに詳しいぞ。
このようにカメラと撮影にちょっと詳しいヤツが疑問に思うわけだ、グラビア撮影とポートレート撮影をどうやって線引きするんだろうか?と。
何が健全で何が卑猥か?なんてポッチャリ好きや貧乳好きが居る世界で一定の線引きなんてできるわけがなく、世の中にはおそらく女性用リクルートスーツが性癖ですみたいなヤツとか、北海道とかに居そうなコートで厚着してモコモコになってる女の子良いよねとか言うヤツが必ず居る。そういう連中に取ってみればリクルートスーツもモコモコなコートのポートレート撮影も卑猥な写真になるのさ。
この世界には衣服を燃やす様子を映したアダルトビデオが存在するんだぞ?もちろん女性、というか男性を含めて人間、何なら生物は一切出てこない。本当に服が燃え上がる様子だけが淡々と流れる映像だ。ハイレベルすぎて理解が追いつかないがアダルトビデオとして実際に販売配信されている(一説には服が燃える映像がアダルトビデオとして販売されている事自体に意味があるらしい。こんにちわ宇宙猫)。
最後に蛇足だが、筆者の妻は不定期に筆者が撮影した妻自身の写真をセレクトし「これ遺影に使ってね」と言ってくる。カメコ冥利に尽きるよね。
自分は学校でコンピューターサイエンスを修めてないし、新卒で就職もしてない野良犬みたいな経歴です。しょうもないアラサーです。
Fラン大学の文系を出て、理由もなく2年ニート、その後はバイトからはじめて、小さいソフトハウスに入るもパワハラで1年くらいで退職しました。
その後は夜中にサーバーを再起動するIT土方をしていました。月の手取りは15万で何もできなかった。
その時にコロナでの案件崩壊と自宅待機が来ました。暇で仕方なかったので、流行りのクラウドの資格をいくつか取り、しょうもないSIerに転職。
毎日やることは、しょうもないエクセル方眼紙にスクショを貼り付けたり、全力でセルを結合することなどです。
他には、技術がわからないプロジェクトマネージャに、画面共有で5000文字くらいある設計書を半日かけて説明して、得られたものは句読点をずらすことだけだった時は、耳鳴りとめまいがしました。
しかしながら、自分も技術はわかる方じゃなかったので、大流行のクラウドの資格や、国家資格とかも暇つぶしで取って、ちょっとわかるようにしました。
また、知識だけじゃどうしようもないので、慣れないGitHubを使ってOSSにコントリビュートとかもしてみました。ただのGood First Issueのバグ潰しでしたが。
こういうことをしても大して給料も上がらず、会議中にAPEXの音がするプロジェクトマネージャの方が評価が高かったのは虚無でした。
彼のAPEXの音をBGMに、転職サイトへとスムーズに登録し、外資系のコンサルに転職してみました。ここはいわゆるBIG4というところです。アーキテクトをすることになりました。
初め、貸与されたPCがMacだったので、外資はいいぞと思ったのですが、MacでやることはWindowsのVDIに繋いでパワーポイントのピクセルずらし、論点のない会議ばかりでした。
当たり前のようにコードは書けず、日々Office製品をいじり、顧客の社内政治に巻き込まれながら、毎日7時から0時まで働きました。管理職はいつ寝てるのかわからない。
外資なのに社内のワークフローは日系企業並みに複雑、裁量はあるが、そもそもの仕事量が多すぎるので実際ありませんでした。無駄にLGBTや環境への配慮の研修が多かったです。
結局ここも前職のSIerの仕事を煮詰めただけで、ストレスは上がるばかりだったので、すぐにやめました。給料は爆増したが、色々と失うものがありそうでした。
ここまでで、エンジニアリングにおいて邪魔なものが顧客だということがわかったので、次はB to Cの会社の事業部のエンジニアになりました。給料は前職据え置き。
今の所たくさんコードがかけて、割と幸せです。この会社に入ってからOffice製品は一切触ってません、あれが悪いわけではないのですが、物には適切な使い方というものがある気がします。
今思うと、自分はものづくりが好きなだけで、顧客の課題解決には全く興味がなかったと思います。昔は技術的なコンサルティングや技術営業などもやりましたが、作った後は金の切れ目が縁の切れ目で、作ったものがどう動いてるかは全くわからなかった。
また、前職と違い、事業部のエンジニアは基本的に技術力がある人しかいないので、頑張ってきたつもりの自分でも毎日不足を感じています。しかもみなさん若いので尚更焦る。
Photoshopのタイル構造はどのように実装したら良いですか?何か参考になるソースコードなどはありませんか?
Photoshopのタイル構造は、画像を小さな矩形のブロックに分割して、各ブロックを個別に処理することで実現されます。これにより、大きな画像の処理を高速化することができます。
このアルゴリズムを実装するには、以下のような手順が必要になります。
画像を読み込む
処理が完了したら、結果を保存する
以下は、Pythonで実装された簡単なタイル構造のコード例です。この例では、画像を単純にグレースケール化しています。
import numpy as np from PIL import Image # 画像を読み込む im = Image.open("input.jpg") # タイルのサイズを決定する tile_size = 128 # 画像をタイルに分割する tiles = [] width, height = im.size for y in range(0, height, tile_size): for x in range(0, width, tile_size): box = (x, y, x + tile_size, y + tile_size) tile = im.crop(box) tiles.append(tile) # 各タイルを個別に処理する for i, tile in enumerate(tiles): tile = tile.convert("L") tiles[i] = tile # 処理されたタイルを結合して、元の画像を再構築する output = Image.new("L", (width, height)) x = 0 y = 0 for i, tile in enumerate(tiles): output.paste(tile, (x, y)) x += tile_size if x >= width: x = 0 y += tile_size # 結果を保存する output.save("output.jpg")
このコードは、Pillowを使用して、画像の読み込み、タイルの分割、処理されたタイルの結合、結果の保存を行っています。このコードを改良することで、より高度な画像処理アルゴリズムを実装することができます。
回答ありがとうございます。しかし、実際にはこれに拡大縮小、タイルを跨いでのコピー&ペースト、ペンツールでの描画などが加わります。拡大縮小は画像ピラミッドのようなもの、メモリ以上の巨大な画像を扱えるのはmmapを使っているのではないかと予想しています。これらを一言で回答するのは難しいと思いますが、何かアドバイスをいただけないでしょうか。よろしくお願いいたします。
拡大縮小、タイルを跨いでのコピー&ペースト、ペンツールでの描画などを実装するためには、より高度なアルゴリズムとテクニックが必要になります。
拡大縮小に関しては、画像ピラミッドを使用することで実現できます。画像ピラミッドは、複数の解像度レベルで同じ画像を表現する方法です。画像ピラミッドを使用することで、拡大縮小のプロセスを簡単かつ高速に行うことができます。OpenCVやPillowなどのライブラリは、画像ピラミッドを構築するための機能を提供しています。
タイルを跨いでのコピー&ペーストは、オーバーレイ技術を使用することで実現できます。オーバーレイとは、複数の画像を重ね合わせることで、新しい画像を生成する技術です。タイルを跨いでのコピー&ペーストは、オーバーレイを使用して、複数のタイルを重ね合わせることで実現できます。また、透明度を使用することで、重ね合わせたタイルの一部を透明にすることもできます。
ペンツールでの描画に関しては、画像のピクセル単位での操作が必要になります。これは、OpenCVやPillowなどの画像処理ライブラリを使用して実現できます。画像のピクセル単位での操作には、色の変更、描画、消去などが含まれます。これらの操作を組み合わせることで、複雑な描画機能を実現することができます。
最後に、メモリ以上の巨大な画像を扱うために、mmapを使用することは可能です。mmapを使用することで、ファイルをメモリ上にマップし、ファイルと同じようにアクセスすることができます。これにより、ファイルがメモリに収まらない場合でも、ファイルの一部をメモリにマップし、必要な部分だけを読み書きすることができます。ただし、mmapを使用する場合は、適切なメモリ管理が必要であり、オーバーヘッドが発生する可能性があるため、十分なテストと調整が必要です。
スクウェア・エニックス第2開発課へ
いつまで「ドラゴンクエストモンスターズ スーパーライト」「星のドラゴンクエスト」「ドラゴンクエストウォーク」「ドラゴンクエストけしけし」「ドラゴンクエストタクト」「ドラゴンクエスト10オンライン」の
「ドラゴンクエスト10オフライン 追加パック」「HD2D ドラゴンクエスト3」「ドラゴンクエスト12 選ばれし運命の炎」の情報は
今月中も来月26日までも27日もそれ以降も出せないのか?
「ファイナルファンタジー16」(PS5)や「ゼルダの伝説ティアーズオブキングダム」(Switch/任天堂)への配慮から
情報出すこと禁じているのか?ふざけてるぜこんなの!
もうFF陣営は「ファイナルファンタジーピクセルリマスター」の発売日決定したばかりだぞ?
これによりFFは1〜10、12、15ポケットエディションをスイッチでプレイできるようになる
けどドラクエはどうなんだ?
トルネコの大冒険無印を落とし切りアーカイヴズ化、同2・3をリマスターするとかすらもしない。
6のスイッチ移植求める意見に「ドラクエ11sの6の扉の世界で我慢してちょ」とか抜かす工作員もいた様だな。自由にドラクエへの訴えしちゃだめなのか、テメェと叫びたくなる。
以上、これが今、私に出来る、第2開発課への魂の叫びです。
ネットでスクレイピングしてきたデータを単純に学習させればAIは賢くなって良い感じの出力出してくれるんでしょ?
と思っていたのだけど、どうも調べていると違っている。
例えば絵描きAIのStableDiffusionで、追加学習させるLoRAがあるが、
顔を中心に切り抜きをする、背景を切り抜くといった手作業が必要となっている。
また画像に偏りがあると、それに引きずられる。
キャラクターだと、同一キャラクターを色んな角度から描いた複数枚の画像が必要になるが、
ある角度ばかり多いとそれに引きずられるといった感じだ。
写真だと、オブジェクト検出くらいだと、人や建物くらいの大雑把なカテゴリー検出では既に駄目で、
髪型の名前や、ファッションの名前など、タグ付けするのに知識の限界を感じる。
(ググれバカ、ChatGPTに聞けばいいという人は是非とも網羅的にタグ付けしたデータセットを出して人類に貢献して欲しい)
そして、ネットにはそれほど高品質なデータは、案外ないのではないか。
フォトリアルな人物写真を出したいとした場合、光をどのように当てるのかという知識は、普通の人には無い。
ストロボ直射、MoLAのようなオパライトなのか、白ホリで2,3mのディフューザーで撮ったのか、画像の範囲外のものから推測しないといけない。
ChatGPTの質疑応答が凄いというので、オープンなモデルも出てきているが、
ファインチューニングするのに、質問と回答をセットにしたデータセットを作らないといけないというのを見た。
単純にドキュメント食わせれば、良い感じに質問答えてくれるようになるんじゃないの?
と思ってたら違ってたわけだ。