はてなキーワード: opencvとは
Photoshopのタイル構造はどのように実装したら良いですか?何か参考になるソースコードなどはありませんか?
Photoshopのタイル構造は、画像を小さな矩形のブロックに分割して、各ブロックを個別に処理することで実現されます。これにより、大きな画像の処理を高速化することができます。
このアルゴリズムを実装するには、以下のような手順が必要になります。
画像を読み込む
処理が完了したら、結果を保存する
以下は、Pythonで実装された簡単なタイル構造のコード例です。この例では、画像を単純にグレースケール化しています。
import numpy as np from PIL import Image # 画像を読み込む im = Image.open("input.jpg") # タイルのサイズを決定する tile_size = 128 # 画像をタイルに分割する tiles = [] width, height = im.size for y in range(0, height, tile_size): for x in range(0, width, tile_size): box = (x, y, x + tile_size, y + tile_size) tile = im.crop(box) tiles.append(tile) # 各タイルを個別に処理する for i, tile in enumerate(tiles): tile = tile.convert("L") tiles[i] = tile # 処理されたタイルを結合して、元の画像を再構築する output = Image.new("L", (width, height)) x = 0 y = 0 for i, tile in enumerate(tiles): output.paste(tile, (x, y)) x += tile_size if x >= width: x = 0 y += tile_size # 結果を保存する output.save("output.jpg")
このコードは、Pillowを使用して、画像の読み込み、タイルの分割、処理されたタイルの結合、結果の保存を行っています。このコードを改良することで、より高度な画像処理アルゴリズムを実装することができます。
回答ありがとうございます。しかし、実際にはこれに拡大縮小、タイルを跨いでのコピー&ペースト、ペンツールでの描画などが加わります。拡大縮小は画像ピラミッドのようなもの、メモリ以上の巨大な画像を扱えるのはmmapを使っているのではないかと予想しています。これらを一言で回答するのは難しいと思いますが、何かアドバイスをいただけないでしょうか。よろしくお願いいたします。
拡大縮小、タイルを跨いでのコピー&ペースト、ペンツールでの描画などを実装するためには、より高度なアルゴリズムとテクニックが必要になります。
拡大縮小に関しては、画像ピラミッドを使用することで実現できます。画像ピラミッドは、複数の解像度レベルで同じ画像を表現する方法です。画像ピラミッドを使用することで、拡大縮小のプロセスを簡単かつ高速に行うことができます。OpenCVやPillowなどのライブラリは、画像ピラミッドを構築するための機能を提供しています。
タイルを跨いでのコピー&ペーストは、オーバーレイ技術を使用することで実現できます。オーバーレイとは、複数の画像を重ね合わせることで、新しい画像を生成する技術です。タイルを跨いでのコピー&ペーストは、オーバーレイを使用して、複数のタイルを重ね合わせることで実現できます。また、透明度を使用することで、重ね合わせたタイルの一部を透明にすることもできます。
ペンツールでの描画に関しては、画像のピクセル単位での操作が必要になります。これは、OpenCVやPillowなどの画像処理ライブラリを使用して実現できます。画像のピクセル単位での操作には、色の変更、描画、消去などが含まれます。これらの操作を組み合わせることで、複雑な描画機能を実現することができます。
最後に、メモリ以上の巨大な画像を扱うために、mmapを使用することは可能です。mmapを使用することで、ファイルをメモリ上にマップし、ファイルと同じようにアクセスすることができます。これにより、ファイルがメモリに収まらない場合でも、ファイルの一部をメモリにマップし、必要な部分だけを読み書きすることができます。ただし、mmapを使用する場合は、適切なメモリ管理が必要であり、オーバーヘッドが発生する可能性があるため、十分なテストと調整が必要です。
教授と仲が悪かったので学士で卒業したけど大学3年・4年の間それなりに勉強したぞ!
使ったのはOpenCVだけどな!
そんな俺から見ればAI絵師のやっていることの一部紛れもなくトレパクだ!
少なくともパクリではある!
特徴量をマッピングしてそれをベースに新しい画像を生成しているといってもベースとなる画像の数が少ない場合はただ元の絵をそのまま作っているだけだ!
一度分解した機械をもう一度組み立て直しているようなものでしかない!
たとえばPanasonicの掃除機を分解して組み立て直したとしてそれはもう俺オリジナルの製品でありパナの特許や著作権は失われるのかと言えばそんなはずねえ!
じゃあそのときに他社の製品も一緒にバラして共通して使えそうな部品を組み合わせて新しい掃除機を作ったらどうだろうか?
ネジの規格が微妙に合わなかったから穴を広げて新しいネジに入れ替えたしここまで加工したしこれはもう別物か?
いや流石にちょっと厳しいんじゃねえかって思うよな?
インターネットではそこを指して一部の口が悪い人間は「トレス絵師と同じだ。パクリだ。トレパクだ」と言ってるわけだ!
トレパクの基準が雑すぎることはあるんだが、そうは言ってもパクリ方の方が雑すぎて流石にトレスだろって状況もあるわけだ!
ただ個々で厄介なのがAIは単に特徴量に基づいて似た画像を持ってきて分解と組み立てをしたときにそのタイプの材料が少なすぎて完全にパクっちまったパターンってのはある種の事故でしかなかったりするわけだ!
じゃあ事故を起こしやすい特徴量抽出を行わせればAIのせいにして堂々とパクリが出来るじゃんって邪悪なリバースエンジニアリングが画策されたりもしてる!
つまりAI絵師が無自覚にトレパクをすることもあるし人間がAIにトレパクを命じる危険性も大いにあるのは間違いないわけだ!
この状況に対して危惧する絵師の気持ちは大いに正しいしかといって生成された画像の中には難癖をつけられているだけの可哀想な作品も多いわけだな!
それを防ぐために最初から自分の絵をAIに取り込むことを許可しないよと言ってる絵師が生まれている!
過剰防衛じゃないかと騒いでる人もいるがそれはAIのやっていることを彼らが理解してないだけなんじゃないかって気がしねえか?
さて俺は流石にそういう連中をいい加減黙らせたいと思っているわけだよ!
俺みたいに学校で画像処理を習った人間からすると低レベルな意見が多すぎる!
つまりはコイツらの恥ずかしい意見がもう出てこねえようなバカにも一発で分からせる一言見て―のが欲しいんだ。
なんかねえか?
アダルトアフィリエイトサイトの構築を開始したのが2020年の3月中頃で、あれから早一年が経とうとしている。
仕事の合間に時間を見つけながらチビチビ構築をはじめ、何度も挫折を繰り返し、2020年11月頃になんとかリリースし、現在はそこそこのアフィリエイト収入を得られるようになったので、回顧がてら流れを書こうと思う。
副収入を得たい、と考えていた当時、ぱっと思いついたのが収益型Webサイトの構築だった。
本業がシステム関係なので技術的な部分はそこそこ分かる、しかし実際にWebで稼いだ経験はない。
いろいろ調べていくうちに、「アダルトアフィリエイトは稼ぎやすい」という記事をよく目にした。
性欲は人間の普遍的な欲求でありその需要は尽きることはない。僕はアダルトアフィリエイトのサイトを構築する方針にした。
収益型Webサイトを構築する場合、当たり前だけどまず最初に収益モデルから検討すべきだ。
Webサイトの収益形態としては、ざっくり言うと「クリック報酬広告」「アフィリエイト収入」「ユーザー直接課金」がある。
「クリック報酬広告」は訪問者がクリックするたび収入が発生するが、それなりの収入を求めるなら莫大なPVが必要になる。
「アフィリエイト収入」もそこそこPVが必要だが、最初からアフィリエイトを意識したサイトを構築するだけであれば、そこそこのPVでもそこそこの収入が入ると踏んだ。
「ユーザー直接課金」はPVがそこまでなくても成立するが、課金したいと思えるコンテンツを提供できるかというと自分には難しい、と判断した。
僕は「アフィリエイト収入」をベースとする、アダルトアフィリエイトサイトを構築することにした。
本業が技術職のクセにコードをイチから書くのが嫌だった僕は、高速WordpressのKUSANAGIを使用することにした。
お名前ドットコムで安いドメインを取得し、AWSの無料枠にKUSANAGIをデプロイし、レスポンシブ対応の高速無料テーマであるLuxeritasを採用し、CloudFlareも導入。
金がほとんどかからないのに表示速度は爆速、という鬼の布陣である。
また、WordPressなら投稿処理をある程度自動化できる。
世のアフィリエイター達は商品が売れるように丹精を込めて記事を書いていたりするが、そんなもの糞喰らえだ。
Pythonでコードを書いて既存サイトからスクレイピングして、加工して、Crontabで自動投稿する。これに限る。
KUSANAGI(CentOS)には既定でPythonがインストールされているので、pipで必要なパッケージを追加。
アダルト界の巨塔といえば「Xvide**」や「Pornh**」だ。
世界一のアダルトサイトたちからスクレイピングで動画を取得し、こちらのサイトを充実させようと考えた。
しかし、ここは無修正天国なので、不用意にスクレイプして無修正動画を載せてしまうと日本では即オナワだ。
考えたのが、モザイクあり動画のみを載せているチャンネルから動画を選定して取得しよう、という試み。
とあるチャンネルでは、動画タイトルにFANZAの品番が入っていたりしたので、その品番をキーワードに更にFANZA側でスクレイプし、紹介先ページとして整理できると思った。
収益モデルを最初に考えておく重要性はここにある。どういうコンテンツをサイトに掲載し、どこの商品ページから購入してもらうか?
この流れの整理がついていないと、いいサイトを作ったとしても収益化は実現できない。
「Xvide**」に極上にエロい神動画があってそれを自分のサイトに掲載したとしても、その商品の情報が分からなければ商品紹介も出来ないわけである。
僕は、動画タイトルの品番から商品を特定して紹介する方法であれば、サイトを収益化していけると思った。
まず、「Xvide**」や「Pornh**」は、違法アップロード天国であるがゆえに、動画が削除依頼により次々と消される。
こちら側で取り込んだ動画の死活判定を実装してリンク切れページを削除していくとデータベースが汚れていくし、
今後サイトコンテンツが充実していったあとも追加と削除を繰り返していくのは果てしないことのように思われた。
そもそも、商品紹介をするだけなら、「Xvide**」や「Pornh**」から情報を取得する必要があるのだろうか?
「Xvide**」や「Pornh**」では、動画の内容やタイトルから商品の情報が分からないケースはとても多い。
FANZA公式のサンプル動画でもいいんじゃないのか?そんなことを考え始めた。
僕は、「Xvide**」「Pornh**」からスクレイプする、という方針を辞め、サイトを作り直すことにした。
FANZA公式のサンプル動画からスクレイプする方針に改めたが、単純にスクレイプするだけならそのサイトには何の価値もなく、何か付加価値が必要だと考えた。
そこで考えついたのが、多言語対応型のアダルトアフィリエイトサイトである。
FANZAの公式サイトは多言語対応していないため、それに対応するサイトを作れば国内だけでなく世界中から集客を見込める、と思った。
Wordpressには多言語対応できるプラグインが用意されており、ある程度の自動翻訳もしてくれる優秀なプラグインもある。
それに、AWSのboto3ライブラリを使えばAWS Translateを使っての翻訳も可能。完璧な構想だと思った。
最終的には15言語に対応する構成にし、FANZAの動画もある程度登録が完了し、やっと世に出せる、という状態になった。
ところが、ここでも自分の構想が致命的に誤っていたということを知ることになる。
利用規約にはっきりと明文化されているが、FANZAはそもそも海外から利用できないサービスであり、国内ユーザーのみを対象としていた。
そのため、「FANZAの公式サイトは多言語対応していない」のは当たり前の話で、前提から既に間違いまくっていた。
ようやくリリースまで漕ぎつけたと思った矢先、敢え無くサイトを作り直すことになった。
これが二度目の失敗である。
多言語対応に意味がないことがわかり、サイトの方向性を決めあぐね、いろんなアダルトアフィ指南サイトを徘徊していた。
そこで「エ○タレスト特化型サイト」というものの存在を知った。
実は「エ○タレスト」はアダルトアフィ業界では非常に有名なサイトで、1日で数百万のPVを誇るモンスターサイトである。
どこぞのサイトで見たが、アクセス流入は「3つのS(SEO・SNS・Satellite)」を意識しろ、というものがあるらしい。
SEO・SNSは今さら既出なので多くは語らないが、Satelliteとは中継、つまりアンテナサイトやアクセス交換のことである。
「エ○タレスト」への登録はまさしくSatellite戦略であり、登録して動画が掲載されれば莫大なPVの恩恵を受けることが出来る。
「エ○タレスト」では「Xvide**」「Pornh**」等から動画を紹介する必要があり、公式のサンプル動画は対応していない。
最初の失敗で「Xvide**」「Pornh**」を避けていたが、莫大なPVの恩恵を受けられるなら…という甘い誘惑に負け、特化型サイトの検討を始めた。
まず、ここでももちろん無修正動画は回避しなければいけないし、視聴時間が長すぎる動画もダメ、商品の内容が分からないとダメ、などの依然としたハードルがある。
そこで考えたのが、「エ○タレスト」に既に掲載されている他サイトの動画ページから情報を取得し、自サイトに掲載する、というもの。
既に「エ○タレスト」に掲載されている実績のある動画であるため無修正の心配はなく、商品の情報も取得可能である。
他人の褌で相撲を取るような卑怯極まりない戦略だが、動画タイトルのカスタマイズ性にオリジナルティを加え、サイトを充実していこうとした。
そして「エ○タレスト」に掲載依頼をしようとしていた矢先、2020年10月から「リーチサイト規制」が施行されることを知った。
この規制はつまり、『今までは違法サイトへのURLリンクだけならセーフだったけど、今後はURLリンクだけでも処罰対象になるよ、親告罪だけどね』というものだ。
「エ○タレスト特化型サイト」は、この規制に思いっ切り抵触するサイトなのである。
いきなり全てのサイトを取り締まることは現実的に不可能だし、そもそも親告罪なのでメーカー側の告訴が無ければ問題ないし、それによる処罰を受ける可能性は低いとは思ったが、わざわざ処罰対象の行為でリスクを取る必要もないとも思った。
そのため、「エ○タレスト特化型サイト」も取止め、サイトを作り直すことにした。
余談になるが、2020年12月の「Pornh**」動画一斉削除事件により「エ○タレスト特化型サイト」は軒並み壊滅的な被害を受けることになり、やらなくて良かったと今は思う。
「アダルトアフィは誰でも稼げる」のは一昔前の時代であり、現在は昔ほどは稼げないと言われている。そのあたり、情勢の変化で受ける影響の大きさを肌で感じる。
これが三度目の失敗である。
「エ○タレスト特化型サイト」の撤退で心が折れそうになりつつも、初心に帰りFANZA公式サンプル動画で何かできないか考えた。
夜もすがらサンプル動画を視聴して一人快感に耽っている中、サンプル動画の総視聴時間が再生するまで分からない、というところに不満を覚えた。
「Xvide**」「Pornh**」ではサムネイルに視聴時間が表示されるので、とてもユーザーフレンドリーだ。
ここで思い付いたのが、サンプル動画の視聴時間を表示して一覧として並べれば、それが付加価値になるのではないか?ということ。
サンプル動画の中には視聴時間が5分以上のものもあれば、1分以下の極端に短い動画もある。
極端に短い動画を排除してある程度以上の視聴時間のサンプル動画を一覧化すれば、それだけで価値のあるサイトになると踏んだ。
何より、海賊版サイトを利用せず、正規サンプルを利用する真っ当な方法でポルノ産業に貢献できる、と思うと少し胸が躍った。
方針が決まったので、早速仕組み作りに取り掛かる。
FANZAの新着動画ページから、サンプル動画があるページURLの一覧を取得する。
個別ページから商品情報と動画URLを取得し、動画の視聴時間はFFprobeで取得する。
視聴時間が短いものは除外し、長いもののみ情報を加工してWordpressに投稿する。
サムネイル用の画像は、OpenCVで顔認識できるサンプル画像の中からランダムに選定する。
後は、カスタムCSSをゴリゴリ書いてレイアウトを整形し、表示処理など気に入らない部分はテーマのPHPコードを魔改造して対応した。
2020年分の動画全件に対して視聴時間判定と登録処理を繰り返し実行し、2020年11月、ようやくサイトをローンチした。
構想から構築までおよそ8ヶ月、三度の失敗と挫折を経験して何とかサービス公開まで漕ぎつけることができた。
既に述べたが、アクセス流入のための3つのS(SEO・SNS・Satellite)を意識したアクセスアップ対応はもちろん実施した。
SEO対策は、然るべきプラグインを導入し、SEO対応しているLuxeritasを使ってさえいれば、コンテンツを充実させていけばそれで十分と考えた。
SNS対策は、Twitterアカウントを作成してTwitterAPIの申請を行い、アクセスキーをサイトに登録して投稿後に自動ツイートする仕組みを作った。
Satellite対策は、ランキングサイトやアンテナサイトに登録し、掲示板でのゲリラ活動など水面下でチビチビ広報活動を行った。
結果として功を奏したのはSEO対策のみで、サイトのアクセスリファラのほとんどが検索エンジンからの流入になっている。
なので、SNS・Satelliteの取り組みも強化しなければいけないと思い、この増田を書いている部分はある。そこは勘弁してほしい。
動画の登録処理がリソース不足やスクレイプ先サイトの構成変更のため時々異常終了しており、根本対応にたびたび時間を取られた。
スケジュール投稿が時々失敗したり、Googleサーチコンソールでインデクスエラーを修正したり、今も運用カバーはチラホラある。
しかし、自動投稿の仕組みを作っているので、正直言うと不具合対応以外にやることはほとんどない。
日常的にやっているのはPV確認、収支確認、ログ確認ぐらいのもので、手動更新することを考えるとラクなもんだ。
「運用開始後に如何にラクするか」というのはやはり企画時点から考えておくべきだな、とつくづく思った。
ここまで読んでくれた人なら気になるであろう、サイトへのアクセスとアフィリエイト収入について軽く書く。
WordpressのJetPackを見ると、SEO効果のおかげか右肩上がりを維持できていて、2020年12月は2万PV、2021年1月は4万PV、2021年2月は6万PVと堅調な数字だ。
アフィリエイト収入も12月は約2000円、1月は約6000円、2月は約10000円という結果が出ており、アフィリエイターの挫折ラインである月500円をすぐに超えることが出来た。
アフィリエイト協会の調査によると、2020年は3人に2人は月に10000円も稼げていない状態らしく、僕はとりあえずの成果をあげることができて満足している。
http://affiliate-marketing.jp/release/202007.pdf
AWSの無料枠が今月で切れてしまうので、今月までに成果を出せなかったら潔く撤退するつもりだったが、今ではサーバ代くらいなら稼げそうだ。
もっとアクセスが増えれば効果的な広告を打ち出すことも出来るので、マネタイズ増強を踏まえてもう少し運用を続けてみようと思う。
ただし今後については、全く別の収益モデルにも挑戦してみたいので、今のサイトがもう少し軌道に乗ってきたら、色々と手を広げてみようと思う。
Luxjulia - アダルト動画(エロ動画)無料サンプル蒐集サイト
アダルトアフィリエイトに限らないが、収益型Webサイト構築で考えるべきことは以下だ。
それでは皆さん、さようなら。レッツエンジョイ ポルノ・テック・マネー!
このネタで本書けそうだわ。
毎日パワーポイントと格闘し、Webでは嫌われる役所の詰め込み型の資料を作成してる。
非効率だと世間からは言われるのだが、仕事で求められるのだから仕方ない。
用意されているのは、4GBのノートパソコンと、OfficeとSharePoint。
Outlookでメールでやり取りするのかと言われるだろうが仕方ない。slack使えないんだ。
python、jupyter、scikit-learn、pandas、Numpy、scipy、OpenCV、Dask、PyMCあたりは取り組んで特に問題なくこなせたが、
仕事と結びつかない。ラズベリーパイやArduinoも制御できるが仕事に結びつかない。
matplotlibやseabornで出版に耐えうるグラフが描けるといわれてるが、
主張したい棒以外を灰色にし、アクセントカラーは最小限にして、でも議論ができるように数字は入れる必要がある。
フィッティングカーブもCERNのROOTほどではないし。(ROOTも古臭いが)
何より色の調整がめんどくさい…。いやどっちにしろ仕事には使えないが…。
会社によって制限が違うのだろうけど、PowerShell、Python、VBA、Jupyter lab、OpenCV、MS Office辺りで仕事をしている。
RPA流行ってるが導入されないので、inspect.exeでUI調べるしかない。
COM操作で出来る限りレポートの負荷を下げられないかと思うが、どう判断したかコメント追加しなければならず、減らせない。
実験の効率化もしたいところだが、M2M、IoTが叫ばれてからかなり経つが、RS232C以降になると余計にめんどくさかったりする。
Bluetoothが途切れたりとか。信頼性考えてEtherCATなんて設備組み換えを頻繁するから出来ないし、そもそも計測器についていなかったりする。
ロボットアームも検討したがまだ月100万かかり価格的にもまだ高い。
1年ほど同じ作業するならティーチングするコストもペイできそうだが、数日で実験内容も変わるので、そのコストも馬鹿にならないので諦めた。
メモリ4GBのノートパソコンを出来る限りフル回転させてるが、きつい。
ディープラーニングも自動化出来るかとTensorflowで試したが当たりまでだが死んだ。
MendeleyとGoogleアラートで出て来るのをタイトルと図をざっと見るくらいだ。
論文探したり読んだりするのを効率化するソフトもサービスも足りてないと思う。
matplotlibが定番で、より綺麗なグラフを描くならseabornと言われているが満足できなかった。
ここ(https://qiita.com/skotaro/items/cdb0732ad1ad2a4b6236)にあるようなグラフは参考にしているが、もう少し応用をと思うと難しい。
TableauかPowerBIのような色合いが欲しい。
ディープラーニングをやっていて、むしろかっこいいグラフを描くのを学習してくれと思う。
エクセルでのグラフも手修正にかなり時間がかかるが、Pythonで描いて調整してを繰り返すのは時間がかかって仕方ない。
Plotlyでも良いのだが、こちらも修正しようとすると一仕事となる。
信号処理をしたり、FPGA用のHDL吐き出したり、画像処理やロボット制御はMATLABを使っていた。
Pythonのライブラリはかなりあるのだが、OpenCVとの連携はいいが、ハードとの連携になると微妙に不便。
MATLABも使いやすいかといわれると微妙である。あと高い。Juliaに期待してるがグラフを描くところで早くなくて躓く。
(MATLABをPythonで呼び出せばいいじゃんと言われそうではある)
論文の検索だと、google scholarやhttps://app.dimensions.ai辺りを使っている。
Mendeleyでそれなりに満足しているが、煩雑な感じもするので、もう少し良いのがあれば知りたい。
THKのリニアモータ(http://www.ea-thk.com/?q=ea_jp/node/3903)とか三菱のLM-H3あたりが欲しい。
高速かつスムーズに動く。
ACサーボはロータリーエンコーダのおかげで精度は出るのだが、速度が欲しい。
レニショーやミツトヨのが欲しいのだが、Amazonや楽天などでは買えない。eBayも、AliExpressもない。
3Dプリンターの精度を上げるなら必須ではないかと思うのだが、売ってないので試すことができない。
ブート関係やパフォーマンスチューニングに欲しい。普通に買えない。
RISK-V用のそろそろ出てきて欲しい。
サーボ用のが欲しい。Amazonだと良いのがない。
Amazonですら売ってなくて困る。
・STL標準講座
・Effective C++
・Modern Effective C++
・Effective STL
15年かけC++を独学した。
ずっと一人で努力し、風呂、トイレ、布団の中でも勉強し、プログラムを書いた。
基本情報処理、ソフトウェア開発者試験、ネットワークスペシャリストとデータベーススペシャリストを取得した。
しかし、正社員はもとより、時給2000円の派遣プログラマも時給1200円のアルバイトもスキル不足で何十社受けても一社も採用されない。
とはいえ、面接官のレベルは「STLなんて初めて聞いた」「gccて何かの会社?」
「C++の企画書(誤字ではない)を書いてる人なんてのがいるの?」
「じょーほーしょりしけんてのがあるの?外国の話?」
独身で、一切を我慢して娯楽を全く体験しないまま40歳になってしまった。IT業界の人間すべてが恨めしい。
貯金100万もなく、素人が書いたプログラムに対して手順書のとおりにマウスを操作してエクセルにテスト結果を書くだけの仕事ばかりしている。
Babelink
作った動機は、そっくりNAVIをつくった人と似ていて技術の勉強のためと今ある類似検索のサイトへの不満からです。
そっくりNAVI - 気になる子の顔写真で、似てるAVを検索できるサイトを作った
http://anond.hatelabo.jp/20160719033025#tb
ディープラーニングは最近流行りの技術で、一般的な物体の認識では人間に匹敵するか
今回は自分が持っている画像や有名人に似ているAV女優を探すという
極めて実用的な問題にその手法を試したいと思い、サイトをつくってみました。
■使ったライブラリなど
・PostgreSQL (データベース)
・flask (Web構築)
・dlib (顔検出)
・Awesomplete (入力補完)
ぼくは一応エンジニアのはしくれですが、pythonとか仕事でちゃんと使ったことないレベルです。
それでも3~4ヶ月程度である程度のサイトはつくれるので、みなさんも是非つくってみてください。
■課題
ディープラーニングでは非常に多くの画像を機械に学習させる必要があるのですが、
現状では学習のための画像がまだまだ足りていないので、あまりいい精度はでていません。
あとはディープラーニングで精度を高めるには、ハイスペックなGPUマシンが必要になるのですが、
そんなもの持っていないので精度をこれ以上あげるのは難しかったです。
そんなかんじで、まだまだ改良の余地はたくさんあるので、楽しみにしていてください。
■参考にしたサイト
http://anond.hatelabo.jp/20101203150748
京大で画像処理を学んだ僕が本気でエロWEBサービス作ったった
http://anond.hatelabo.jp/20130122180847
画像の収集はサーバー容量の問題もあり、していないので画像検索を気軽に試してみてください。
Babelink
条件に該当するサイト、リストアップいただきありがとうございます!
https://jjyap.wordpress.com/2014/05/24/installing-opencv-2-4-9-on-mac-osx-with-python-support/
OpenCVの導入解説として、初めてこの操作をする人に向けて丁寧に説明されているのは素晴らしい。初めて取り組む人に向けては、ここまで噛み砕くと不安感を払拭できてよさそう。ただし、慣れている、またはOpenCVを実際に使って云々と解説する場合は、コマンドの例は飛ばす方がすっきりしそう。
http://kometchtech.blog.fc2.com/blog-entry-1173.html
わからないことはわからないと書くのは、賛成。Qiitaのような知見をさくっとまとめるサイトなら、これくらいがいいかも。
問題が起きたときに、わからないと一旦置かれていた部分を追いかける必要があるフラグも立ちやすい。
苦しんで覚えるC言語
http://9cguide.appspot.com/ にもアップされているものと同じ?もしそうだとしたら、解説→ドリル→解説…と、学習参考書に近いものを求められているのかと理解している。
自分自身が持つ技術水準や、求められる情報(導入, 応用, ケーススタディのサイズ)によって、読んでもらったときに理解してもらいやすいものは違うことを、別の観点から知ることができてGoodでした。
---
さて、自分自身が先に示された6つの条件を満たしていると考えているブログはこんな所。
上記2つはいずれも読者に「ある程度」の知識があることを要求している。その上で、運用している上で遭遇する問題…それもドキュメントにない情報…を、後で同じ問題に遭遇した人が問題解決を再現できる水準で記録されていることに感服する。
ただ最近はまず公式とマニュアルを見に行って、よくわからなければググって傍系のStackOverflow(一番これが多いです)・英語圏のブログ・解説サイトに行く、エラーが出たら--debugしてみてよくわからなかったらエラーをググるなどの使い方をしているので、あまり日本のブログにぶち当たることは無いです。
これは同感。公式マニュアルを見たら解決する問題が多いし、公式マニュアルで嘘をつかれる可能性は比較的低い。
---
技術ブログを書いている人間として、嬉しいなと思うのはこんな順番。
で、何より嬉しいのは、なんてことはない話だが…
である。
OpenCVの次期バージョンではPython3に対応するそうだよ。
http://opencv.org/opencv-3-0-alpha.html
いまの最新はbetaだけど試したら?
今選定段階なんじゃあないの?