「メタデータ」を含む日記 RSS

はてなキーワード: メタデータとは

2013-05-09

たとえ少ない分量でも漫画のページを転載すべきでは無い

マンガ画像ブログへの無断転載・掲載はみんなやっているからやってよいのか?という問題の話。

http://d.hatena.ne.jp/yarukimedesu/20130508/1367979625

要約)nanapi社長であるkensuuが漫画コマ批評目的でも無いのに転載しているけど、それってどうよ?

案の定コメント欄にkensuu御大が登場して和解しちゃってるいつものパターンだけど、俺もこの説得される前のブログ主(yarukimedesu)さんと同じ考えなんだよね。批評目的じゃないのに転載するべきじゃないと思ってる。

理由

漫画一冊のページって250ページぐらいだっけ?そのうちの一つのページを一つのブログ転載しても、「分量的にごく僅かだから批評目的じゃなくても問題無い」ってkensuuみたいな人は主張するわけだ。

でもさ、例えば同じ人間が250のブログ作ってそこに1ページづつ転載したらどうなるんだろう。

一つ一つのブログに掲載されているページはたったの1ページだから問題無い?

でもトータルで見れば全てのページがネット上にアップされてることになるから、「この漫画12ページ目のurlhttp://~~~で、13ページ目はhttp://~~、14ページ目は....」というメタデータさえあれば一冊丸々自動で取得できちゃうよね。

分量が少ないからお咎め無いだろうとか、そういう問題じゃないんだわ。ましてや「違法でもネットにアップしたら売り上げが伸びて作者も喜ぶからOK」ってどの口がそういう事を言えるんだよ。ちょっと酷い。絶句

批評目的で無ければ転載しちゃいけないっていう決まりがある以上はそれを守るべきじゃない?

nanapi投稿されているレシピがどのくらいあるのか知らないけど例えば10レシピだとして、一つのブログにつき10レシピだけ転載して、そういうブログを1万作ればnanapiコンテンツは全て丸写しできるよね。それっていいの?そういうことされて、kensuuは平然としていられる?一つのブログには10個のレシピしか転載されてないかnanapi側は抗議しようが無いってことになるよ。

 

仮にも社長としてサービスを運営している人の態度じゃないよなあ。まあブログ主amazon画像なら何に使ってもいいと思ってる時点で同じアナのムジナだけど。

2013-04-28

iTunesで曲を管理するようになってから6年くらい経つ。

最初のうちはアルバム名やトラック番号なんかのメタデータもちゃんと入れていたけれど

それが1000曲を超えた辺りからどうでもよくなり、

3000曲を超えたいまではもうタイトルですら適当になった。

常にランダム再生で聴いている。

でもそれで充分だと思えるようになった。

誰が歌っているか演奏しているかに左右されない、本当の意味音楽を聴いているような気がする。

2012-08-08

Web上の図書館存在感と図書館情報学用語の存在

例えばCiNii Articlesみたいに図書館系のDBGoogleが乗り入れるようになった結果、そのデータつーかメタデータレコード自体はWebで容易に目にできるようになったし、その先にあるフルテキストとか資料のアクセシビリティもある程度向上した。

んだけど、これって一方で、図書館情報学系の用語で探す時のノイズを爆発的に増加させたんですよね。

例えば"機関リポジトリ"+hoge検索すると、機関リポジトリとは関係ないCiNiiに収録されてる論文レコードがことごとく上位にヒットするようになってしまった。なんでかってとレコードのページにJAIRO(機関リポジトリポータル)へのリンクが必ず含まれてるから

普通図書館OPACレコードでも、Googleが拾ってくる館では同様の状況があって、「タイトル」とかの書誌的事項というか項目名が明示されている=OPACが返すHTML文字列として含まれてるせいで、"[書誌的事項]"+hogeとかで検索してもそうなる。

これって、site指定やinurl使っての除外検索すればなんとかならなくはないんだけど、それだと図書館DBリソース別に検索をしなきゃならないっつうね。

こういう図書館のもってるリソース存在感が増したせいで(語の)図書館情報学用語(として)の存在感が減ったのって、Web屋と図書館屋のどっちかが責をおうべきものなんですかね。負うならどっちがより重いんですかね。

2012-03-28

http://anond.hatelabo.jp/20120328113149

膨大なメタデータを準備して、添付して、っていうだけでも、かなりのコストがかかるよね。

まあ大半をプログラムで処理するにしても、そのプログラムの開発にもコストがかかるわけで、

まだ電子書籍がロクに売れていない状況で、そうした投資をするのは難しいんじゃね。

メタデータにしても、

独自規格でやると汎用性が無くなるから世界的に規格を統一して、

とかやってると時間がかかりそう。

徐々にやっていくしかないんじゃないの。

電子書籍について -- 一万冊を支えるために

電子書籍議論が華々しいけど、どうしても僕は納得がいかない。なので、一度某所に名前付きで書いたものを、少しでも騒ぎになってくれる事を願って、編集してここに掲載する。僕が誰かわかった人は、黙ってくれるとありがたい。

まず、今の電子書籍に対する不満は、そもそも今の電子書籍環境じゃ、生涯付き合えないということ。iBooks程度のインターフェイスだって100冊もあれば面倒な事が多い。検索機能も無い、それ以外のツールはもっと酷い。生涯付き合うなら一万冊の管理をこなせるようになってほしい。一万冊というのは、読書家の一生を考えれば、決して無謀な数字じゃない。数代続く学者一家ならそれくらい書庫にあったりしてもおかしくないし、図書館で借りたりすれば、10から60歳までで一万というのはあり得る数字マンガを買い込めば、普通の人でも数千冊は読破可能。

一万冊の読書を支えるためには、以下の機能が必要と考える。

これくらいでも、一万冊と付き合うのは難しいだろうけど、ひとつひとつ機能は決して難しいとは思わない。

また、書籍自身も単なる複製で終わってしまっているので、これも不満。例えばこんな機能があってもいいはずだ。

要するに、紙だと必然的に対処せざるを得ないものを排除して、今まで頭を使ってこなしていた事を電子側でこなしてほしいのだ。

特に歴史物だと、今自分が読んでいる箇所がどこの場所で、いつの年代かがわからなくなる。紙の場合は、巻頭または巻末に資料があるけど、電子であれば、読んでいる場所からその場で呼び出せるようになってほしい。もし小説ネタバレをするようなら、進行状況に合わせて内容を変化させれば良い(既出地名だけを表示する、など)。

こうした機能ゲームならおなじみで、主人公の位置をマップで示したり、あらすじが進行中に挟まって後から確認すると言った事が出来るけど、今の電子書籍は全くそういうことを学んでいない。これじゃ、値段を下げるくらいしか売り方が無い。こうした機能がつけば、同額か、値段を上げたって問題ないと思うくらい。元々文庫マンガは安いので、これ以上値段を下げる議論なんてしていたら、業界自体が死んでしまう。付加価値で勝負してくれた方がよっぽど良い。

たまに「やっぱり紙の方が良い」という議論があるけど、決してそんな事無い。引っ越しダンボールの中に蔵書がまぎれたり、本棚を二重に組んで取り出せないとか、紙の不便さは山のようにある。問題は、それを電子書籍が解決していない事だ。イノベーションでも、顧客需要でもなく、惰性で電子書籍に取り組んでいるからいけないのだけど。読書家の皆さんは、もっと声を大にして「紙は不便」と言おう。

2011-03-08

ネット既存メディアについて最近考えてる事

うまくまとまらないので、箇条書きにする。思考メモたいなもんなので、結局何が言いたいのになってるかもしれない。

情報への価値付け

価値付け→目新しさ、ためになる、需要のある事実歴史的に重要事実リスペクトしてる発信者から情報etc、色々な価値があるけど、まとめて「情報の重さ」ということにする。

何が情報を重くするのか

時事問題災害等、事実自体が重いケースは除き、情報の一次発信者によってある程度重さの初期値が左右される。

既存メディアでは、大手マスコミなど、情報を加工し提供している所で重さが操作される。

ネットでは、情報の受け取り手がバズによって重さを加算していく。

情報の重さが簡単に操作されないための仕組み

http://anond.hatelabo.jp/20110307103006 自分の書いたものから一部

TL に出てきたものを RT するとき自分がフォローしている人が回してきた情報→フォローしてるってことは信用や友好や情報価値などがあるということ→情報価値や精査の連鎖がある

 

工作アカウントが RT する→こういうアカウントスパムっぽかったりするのであまりフォローされない(単純につまらん)→フォローするのはフォロワー数が欲しいだけの人や自動フォロー→そういう人のツイートはまたつまらないのであまり有意義なツイートをする人にフォローされて無い→情報価値が上がらない連鎖

 

てな感じで、Twitter場合ツイートが RT されて自分の TL に来るまでに「信用の連鎖」や「情報の精査」がある。だれが RT したか調べなくても TL という経路を伝わってくる以上、それがあるわけ。

 

ところが、はてぶのような仕組みにはそれがない。数字しか意味が無いのがまずい。クソみたい工作員の3ブクマでも、3ブクマなわけよ。これが Twitter なら全然フォロワーいない奴の 3RT には意味ないじゃん。そうはならないのがはてぶ。

人間フィルタだな。

人間フィルタのいきつくところ

情報を重くする。情報メタデータをつける。情報に信用度をつける。または下げる。色々が処理がされて、再発信される。受け取り手は発信者でもある。発信者と受信者の区別がなくなっていく。ゆるやかな情報の共有。

ゆるやかな情報の共有が滑らかに行われるためには

同時性が必要。

情報を重くするには人の判断が必要→判断をするにはリテラシーだけでなく感情もかかわる。同じ瞬間に共有していることで一気に意思や感情がかかわりやすくなる。

リアルタイム中東からの声を聞いた人達が、国内の発信者と同じ距離感でそれを捉えて、革命自体を身近に感じたように。

さらに同時性がどれだけ高いかということ自体が情報に重みを加算する。

シーケンシャルなメディアとそうでないメディア

シーケンシャルなメディアって他に言い方わからないので俺俺用語。

シーケンシャルでないメディア検索エンジン過去ログWikipedia書籍等。いつでもどれでもどこからでも見れるメディア。これらは人の好奇心や知識欲がある限り、ずっと生き残るだろう。

例えば、アニメは初放送の時はシーケンシャルなメディアで、放送後に発売された DVD はシーケンシャルじゃないメディア

問題はシーケンシャルなメディア

最大のシーケンシャルなメディア現実世界現実世界は万人と共有している。

現実世界時間軸とリンクした仮想世界も同等の同時性がある、MMORPG など。

ニコニコ動画は、動画の中にコメント時間軸を入れる事で、仮想的に同時性を演出している。ニコニコ動画のどの動画をいつ見ているかというのは、現実世界時間軸での同時性だし、これにも大きな価値があるが。(世界の新着動画生放送など)

サッカーの放送を見ている、今人気アニメの第何話を見ているという同時性。それと相互に依存する情報の重み付けと共有。

ネットと今のテレビの決定的な違い

今の日本テレビの一番のネックはこの情報の重み付けと共有が外部依存していること。

ネットでは境目がない。内包されている。

テレビでは、分離されている。テレビで発せられた情報ネットで重みを加算されることも多い。

(俺俺メモ。そー考えると、昔ながらのライブイベントというのは、テレビよりむしろネットにずっと性質が近い気がする。いや、もっと昔ながらの口コミや言い伝えにはネットと同じように情報を重くする仕組みが受け取り手自身にあった。テレビというメディアが逆に異質なんじゃないか?)

その差がなにを生むのか

情報の重み付けと共有は、同時性によって加速されるから同時性のないシーケンシャルなメディアは段々価値がなくなっていくか、ウケが悪くなっていくだろう。

海外メディアでは新聞局や通信社テレビ局ネットの利点を生かした発信をしている。ライブブログなど、ほぼリアルタイム更新される情報群。テレビ側では、ネットのゆるやかな共有、重み付け、同時性を放送の中に取り込む動き。

http://wiredvision.jp/news/201103/2011030719.html wiredvision アルジャジーラの「ソーシャルネットTV

この差を解決できないメディアはただのインフラになっていくと考えている。(百年スケールだろうが)

まともな考えなら、それもメディアに取り込もうとするからアルジャジーラのような取り組みはとめられないだろう。(日本国内はしらん)

テレビ価値

この差を解決できないメディアはただのインフラになっていくと上で書いたけど、そのインフラこそがテレビの強さ。同時性、共有、これが巨大になっていくと今のネットワークでは帯域幅が足りない。テレビにはそういう問題がない。

そう考えると、ネットインフラとしてテレビを利用するようなものが今後増えてくる。アルジャジーラの取り組みはまさしくそれ。

俺らが情報価値をつける

ネット情報は信用できない、だからネットはと言われるが、情報に重みをつけるのは俺ら自身だ。そのために出来る事は、リテラシーを育てること。

http://anond.hatelabo.jp/20110307054102 俺の書いたもので申し訳ないけど、伝えたいことは大体書いてある。

2010-05-27

同人誌をePub化する作業メモ(メタデータ編)

今後iPadWWWを見る人が増えるかも知れないので、サークルWWWサイトで公開しているパロディ同人誌をsigilでePub化しようかと思ったんだが、メタデータの取り扱いがよくわからないので色々考えてみたメモ

まず前提として、同人誌のePub化を行うにあたり、各種メタデータを書く必要がある。その際、一部同人界隈で使われている、暗喩、符丁、伏字の類は一切使わないこと。それに抵抗があるコンテンツはePub化しないほうがいい。(そもそもそんな内容のものをWWWで公開すんなって話でもある。mixiでやっとけ。pixivは他人に見られることが前提のサービスだからやめとけ。)

メタデータを読むにあたり参考にしたのはこれ http://ryoji.sakura.ne.jp/references/rfc2413-j.txt

何がどこまで決まっているのかさっぱり分からないので、的外れな使い方をしているかも知れない。特に著者名とサークル名の扱いの違い(AuthorとPublisherに分けるべきか、どちらもAuthorにすべきか)と、Rightsが怪しい。

メタデータ登録(必須事項)

Title
同人誌タイトル
Author
著者を書く(サークル名ではない)。合同誌の場合責任を持てる著者を書く。この欄は後で増やせる。
Language
Japanese だと思う。大抵は。

メタデータ登録(Add Basic

Subject
いわゆるキーワードを書く。同人誌場合は Dojinshi, というキーワードを必ず登録するようにしたらいいと思う。Fanjine よりも通りがいいかもしれない。複数登録することが出来るので、元とした作品名とかを書くといいかも。レーティング情報もここに書くべき? pixivにおけるタグのような使われ方をしそうな気がする。
Publisher
サークル名を書くとよいだろう。合同誌の場合は主たる発行サークル名(コミケで見本誌登録しているサークル)のみを書く。
Description
電子書籍の説明(100文字程度)。オリジナルなら問題なく書けるだろう。パロディ同人誌場合、何の二次創作物であるのかをここで示しておくことで、変な誤解を回避出来る。例えば東方場合、お決まりの『この同人誌は、東方Project二次創作物です。』の文言をここに書く。東方以外の場合適当アレンジすること。
Date of publication
書籍の発行日。同人誌なら本誌を発行した日を書く。
Date of creation
ePubを作った日を書く。同人誌をePub化した日になるだろう。
Rights
著作権や各種権利に関する事項を書く。正確には以下のような定義である。

2.2.15: <rights> </rights>

権利に関する表明や、ある権利への参照を表す。本仕様では著作権表示やさらなる諸権利についての説明は直接的に示されるべきである(should)。本仕様ではコンテンツ供給者が、購読権や販売用コンテンツの複製などのライセンス用語を、安全な販売業者に向けて指定する方法を定義していない。

http://lost_and_found.lv9.org/opf/opf_2.0_final_spec_ja.html

完全なオリジナルであれば、堂々と

>(c) 作家(自分の)名 出版

と書けばよい。もっとも、日本場合オリジナルだろうがパロディだろうが、電子書籍としてこれが世に出た時点でメタデータの Title/Author/Date of publication を元に著作権が発生する(無方式主義)ので、わざわざ明記する必要はない気もする。

パロディ同人誌場合、『元の作品タイトル』を書き、それに対応する著作権情報を書くのがやはり礼儀であろう。複数年続いている作品の場合、年は省いて書いたほうがいいのかもしれない。

  1. 漫画小説場合は、オリジナル作品のタイトルと、奥付で(c)表記で示されている著者名などを書く。稀に著作権表示に出版社が入っている場合があるので注意が必要。(c)表記がが無ければ著者と出版社を書いておく。
  2. アニメ場合公式サイトなどで大抵著作権に関する記述が見受けられるので、それを書く。
  3. ゲーム場合公式サイト情報が役に立つ。ゲーム公式サイト、もしくはゲームマニュアルから著作権に関する表示を見つけることが出来るだろう。明記されていない場合ソフトハウス名などを書いておく。
  4. スピンオフ作品や別メディアで展開している作品が対象の場合、準拠した作品の権利関係を書く。
  5. 東方場合、お決まりの『東方Projectは「上海アリス幻樂団」さまの作品です。』をここに書く。
  6. (c)表記がはっきり無い場合でも、東方場合と同様、オリジナル作品のタイトルと、それが本来誰のものかを書いておけばよい。対象が作品ではない(芸能系など)場合権利関係を書くのが大変難しいので、Description:に一体何の本なのかを書いておくべきだ。
  7. 複数の作品をクロスオーバーしている同人誌場合、1作品あたり Rights を1つ使い、複数登録する。

例:『バクマン。』であれば、

バクマン。 (c) Tsugumi Ohba (c) Takeshi Obara

となる。この場合、(c)表記に出版社がないので書かなくてよいだろう。複数連名の場合漏れなく書くこと。

例:『ろりぽ∞』 の場合

ろりぽ∞ (c)仏さんじょ/一迅社

となる。

例:アニメストライクウィッチーズ』の本であれば、

ストライクウィッチーズ (c) 第501統合戦闘航空団

例:『WORKING!!』のアニメ版足湯後日談本などを出した場合は俺に教えてくれ、じゃなくて、

WORKING!! (c)高津カリノスクウェアエニックス・「WORKING!!製作委員会

メタデータ登録(Add Adv.)大量にあるが使いそうなものを挙げる

Author
同人誌を複数の著者が書いている場合、ここで書く。複数登録出来る。合同誌の場合権利関係(責任関係)も対等であると見なせる人はここに書く。必須メタデータの Author と同じ扱いになる。サークル名を書いてもよい(?)
Collaborator
ゲスト原稿を書いてくれた人などはここに書く。合同誌の場合責任を負うところまでいかない場合はここに書く。
Director
編集者がもしいるなら書いておくとよい。昔はそういうサークルもありました。

その他

自分サークルでわざわざePub化するとこなんてほとんどないと思う。どこかが同人誌をePub化するサービスを始めたとき、これらのメタデータがどう使われるのか?にとても興味がある。ツッコミとか、自分とこのブログで取り上げて修正とか自由にやってほしい。誰か規格を作ってくれたらそれに乗っかりたい。

2009-09-29

iPhoneの位置情報に関するまとめ(暫定版)

iPhoneで撮影した写真に位置情報が付加され云々ということで、先週あたり盛り上がっていたのでまとめておく。

iPhoneには、位置を決める方法をGPSを含め3つもっている

iPhoneスペック表( http://www.apple.com/jp/iphone/specs.html )には以下のように記されている。

位置情報

このうち、デジタルコンパスは、(静止画のExifには含まれるけど)位置情報ではないので省く。

携帯基地局情報

http://www.fdma.go.jp/neuter/topics/jouhou/190126unyou.html にあるとおり、現在携帯電話からの緊急電話では位置情報を通知する義務がある。それに対しSoftbankでは、http://mb.softbank.jp/mb/support/2G/protect/report_position/ に示されているように、GPSあるいは携帯基地局情報を用いて知らせるとある。これがiPhoneでも使用されている。その精度は、数100mから10,000m程度で、もちろん電波圏外では使用することができない。

Wi-Fi

これは、Wi-Fi機器MACアドレスとその位置をひも付けすることにより、Wi-Fiを搭載した携帯機器(今回はiPhone)からのWi-Fi機器の見え方から位置情報を推測する方法で、iPhoneでは、Skyhook( http://www.skyhookwireless.com/ )と提携することによりこの機能を実現している。http://www.skyhookwireless.com/howitworks/coverage.php を見れば分かるとおり、日本でも都市圏ではそこそこの範囲がカバーされている。精度に関しては http://www.skyhookwireless.com/howitworks/performance.php に、10m円で99.8%(つまりほぼ10mの精度が出る)と書いてあるけど本当かなー。

余談だけれども、Skyhookの中の人は少々ビッグマウスなようす。

GPS

説明はいらないと思うけどいちおう。詳しい話はWikipediaを参照してもらうとして、GPSの精度は10m円80%というのがさっきの所に書いてあったけど、現在民生用ではだいたいそのとおり。屋内に関しては、最近では窓から数mであれば測位できるものも多い。GPSはその特性上、移動体での測定に強く(というか、加速度から位置を出すので静止状態だと精度があまりでないGPSは等速直線運動時にいちばん精度が出る。高速移動体はその運動の一部をみると等速直線移動と見なせるため)電車飛行機(ベルトのランプが消えてから使ってね!)でも使用することができる。AGPSというのは、測位初期に必要な衛星そのものの情報を他の通信手段により取得するもので、精度には本質的には関わらない。

方式精度備考
基地局情報数100mから10,000m程度圏外では使用不可
Wi-Fi(Skyhook)約10mほぼ都市圏のみ
GPS約10m屋内使用不可

iPhone GPS問題関連のブックマークで「iPhoneGPSは精度でない」と書いている人がいるけど、たまたまその時がそうだっただけで、そんなことないよ。

静止画とGPS

静止画にメタデータを埋め込むフォーマットとしてExifというのが策定されていて、GPS情報もここに含まれる。現在発売されているデジタルスチルカメラはだいたい対応しているよ。

んで、iPhoneでは、デフォルトではONの設定を切らない限り、上の3つの方式のうちで取得できた精度のいいものを自動的に静止画に付加しているじゃないかな。

問題点ってなにさ

ここからが本題。一番の問題は、ユーザに知らされずに位置情報が付加され、それが外部に出てしまう可能性があることだと思う。これまでのGPSに対応した静止画撮影可能な通信端末(つまりいまどきのGPS搭載携帯電話)はGPS情報自動的に付加されることはなく、かならずユーザ操作を必要とする。これは、GPSが常時ONでないと測位に数10秒かかるという制限からきているという側面もあるけれど、ユーザに位置情報がついているということを意識付けするという意味でも必要な操作なのだと思う。

どうすればいい?

まずは位置情報が付加されることを認識すること。アップルは静止画に位置情報を付加するかどうかのオプションつけてデフォルトOFFにするくらいした方がいいと思う。

で、データを外部に出す際に位置情報を出してはまずいものだったら位置情報を削除。iPhoneで削除できるかは知らないので教えてください。PCでやるなら手段はいろいろあるけど、Picasaなら、静止画を選んで、[ツール]-[ジオタグ]-[ジオタグクリア]で削除できる。Picasaではサムネイルの一覧で位置情報の有無がアイコンで表示されるのでわかりやすい。

蛇足

はてなフォトライフでは、オプションで位置情報の表示のON/OFFを選択(デフォルトOFF)できるんだけど、位置情報付きの写真を表示して「名前をつけて保存」すると、位置情報ON/OFFに関わらず、位置情報がついたまんまだよ。これってまずくない?

(追記)そういえば、はてなフォトライフでは機種で検索できる(これもExifにふくまれている)よなーということで実験http://f.hatena.ne.jp/model/iPhone%203GS から写真適当に保存して、Picasaにつっこむと…。

2008-11-30

On File Systems

(http://www.kev009.com/wp/2008/11/on-file-systems/)

訳した。分からなかったところは英語のまま。ファイルシステムについて完全な素人なので変な所があるかも。

Introduction(前置き)

ファイルシステムOS重要な要素だが最近ではあまり関心を払われていない。ビットが入ってきてビットがでていく……デスクトップシステムにとっては、たいてい十分に働いてくれる……ただし、電源が落ちるまでは。しかし、そんな状況ですら近頃ではあまり困ったことにはならない。

Linuxファイルシステムの分野には競合製品が多い。ext2が長い間標準とされてきたが、2001年辺りから他の選択肢も主流となった。あまり歴史に深入りせずに要約すると(順番は適当)、ext2進化してext3となり、ジャーナリング機能が付いた。ReiserFSがリリースされた。SGIはXFSを移植した。IBMはJFSを移植した。

いくつかの理由があって(主に政治的な理由で)ext3Linuxデファクトファイルシステムとなった。

Classic File Systems(古典ファイルシステム)

私が古典ファイルシステムと呼ぶとき、基本的にいつも同じ概念を指している。つまり古典的なUnixレイアウトファイルシステムジャーナリング機能を追加したものだ。ここに述べるのは、それら古典ファイルシステムハイライトである。

これは後知恵だが、JFSやXFSが牽引力を持たずに、ext3が人々を古典的時代に停滞させたのは一種の悲劇だった。しかしながらext3は信頼性を証明し、きちんと動くように一貫として保守されてもいる。

NextGen File Systems(新世代ファイルシステム)

2005年SunZFSという爆弾リリースした。ZFSは私が次世代ファイルシステムと呼ぶ時代への案内人である。

ハードディスクが大きくなるにつれて、バックアップ戦略、完全性(integrity)の検証、巨大なファイルサポートは前より遥かに重要になってきている。

ここあげるファイルシステム古典的なVFS lineを曖昧にしたりLVMとRAIDを強固な結合することによって管理を楽にする事を目的としている。

ダメハードウェアで起きる静かな(観測されない)データの破損も心配の種である。これに対抗するために、次世代のファイルシステムチェックサムを供えている。

いろんな意味Linuxコミュニティーは完全に油断しきっており、多くの開発者ZFSリリースされるまで次世代ファイルシステムについて真剣に考えてこなかった。Reiser4はいくつかの新しいアイデアを持っていてキラーファイルシステムとなろうとしたが、Hans Reiserは、他のカーネル開発者との著しく酷い関係を楽しんでいたのだった。ただ幸運な事に、いまではいくつかの、より先進的なファイルシステムが登場しようとしている。

Conclusion(結論)

kernel 2.6.28と一緒にext4がリリースされるが、BtrfsやTuxs3が安定するのを待った方がよい。Btrfsの開発陣は短距離走開発を行っているので、Linuxカーネルの開発サイクルに次か、あるいはその次で取り込まれると思われる。

SSDが普及するのは明白だ。理論的に速度の面で磁気ストレージより圧倒的に早く、現実にも既に書き込み速度が追い付きはじめている。最新のIntelランダムアクセスやIOPSは非常に印象的である。Btrfsは当初からSSDへの最適化を取りいれようとしている。しかし、これらの新しいデバイスは、更に速度の早い新しいファイルシステムを生むだろう。

私自身の考えでは、ウェアレベリングやFATエミュレーションSSDの性能を押し止めているため、 新たなファイルシステムが登場すればパフォーマンス改善できるだろう。

2008-10-12

[][]Grass

Table of Contents: ||||||

オープンソースソフトウェアGISOpen Source software and GISOpen Source software and GIS 1 (6)
オープンソース概念Open Source concept1 (2)
オープンソースGISとしてのGRASSGRASS as an Open Source GIS3 (2)
ノースカロライナサンプルデータセットThe North Carolina sample data set 5 (1)
この本の読み方How to read this book5 (2)
GIS概念GIS conceptsGIS concepts 7 (14)
一般的なGIS原理General GIS principles 7 (6)
地理空間データモデルGeospatial data models 7 (4)
GISデータシステムの構成Organization of GIS data and system11 (2)
機能functionality
地図投影法と座標系Map projections and coordinate systems 13 (8)
地図投影原理Map projection principles13 (3)
一般的な座標系とdatumsCommon coordinate systems and datums 16 (5)
GRASSをはじめようGetting started with GRASSGetting started with GRASS 21 (32)
第一歩First steps21 (16)
GRASSダウンロードインストールDownload and install GRASS 21 (2)
データベースコマンド構造Database and command structure 23 (3)
GRASS6のためのグラフィカルユーザインタフェイス: Graphical User Interfaces for GRASS 6: 26 (1)
QGISgis.mQGIS and gis.m
ノースカロライナを用いてGRASSを開始Starting GRASS with the North Carolina 27 (3)
データセットdata set
GRASSデータディスプレイ3D可視化GRASS data display and 3D visualization30 (4)
プロジェクトデータ管理Project data management34 (3)
新しいプロジェクトGRASSを開始Starting GRASS with a new project37 (7)
aのための座標系の定義Defining the coordinate system for a 40 (4)
新しいプロジェクトnew project
空間投影されていないxy座標系Non-georeferenced xy coordinate system 44 (1)
座標系の変換Coordinate system transformations44 (9)
座標系のリストCoordinate lists 45 (2)
ラスタベクトル地図投影Projection of raster and vector maps 47 (1)
GDAL/OGRツールで、再投影Reprojecting with GDAL/OGR tools 48 (5)
GRASSデータモデルデータの交換GRASS data models and data exchange53 (30)
ラスタデータRaster data54 (16)
GRASS2Dの、3DラスタデータモデルGRASS 2D and 3D raster data models 54 (2)
領域の統合と境界Managing regions and boundaries raster map resolution
ジオコードされたラスタデータインポートImport of georeferenced raster data58 (8)
スキャンされた歴史地図インポートとジオコーディングImport and geocoding of a scanned66 (3)
ラスタデータエクスポートRaster data export 69 (1)
ベクトルデータVector data70 (13)
GRASSベクトルデータモデルGRASS vector data model70 (3)
ベクトルデータインポートImport of vector data73 (5)
xy CAD描画のための座標変換Coordinate transformation for xy CAD drawings 78 (2)
ベクトルデータエクスポートExport of vector data80 (3)
ラスタデータを使うWorking with raster data 83 (86)
ラスタ地図を表示、管理Viewing and managing raster maps 83 (22)
ラスタデータの表示と、カラーテーブルの割り当てDisplaying raster data and assigning a color table 83 (3)
ラスタ地図に関するメタデータを管理Managing metadata of raster maps 86 (2)
ラスタ地図クエリプロファイルRaster map queries and profiles88 (2)
ラスタ地図統計Raster map statistics90 (1)
ラスタ地図ズームと、部分集合の生成Zooming and generating subsets from91 (1)
簡単なラスタ地図の生成Generating simple raster maps92 (2)
再分類と再スケーリングReclassification and rescaling of94 (3)
ラスタ地図raster maps
ラスタ地図タイプの記録と値の置換Recoding of raster map types and value replacements 97 (2)
カテゴリベルの割り当てAssigning category labels99 (4)
マスキングとノーデータ値の取り扱いMasking and handling of no-data values 103(2)
ラスタ地図の計算Raster map algebra 105(10)
整数と浮動小数点データInteger and floating point data107(1)
基本的な計算Basic calculations 108(1)
“if"状態を使うWorking with ``if'' conditions109(1)
r.mapcalcのNULL値の取り扱いHandling of NULL values in r.mapcalc 110(1)
r.mapcalcでMASKを作成Creating a MASK with r.mapcalc 111(1)
特別なグラフ演算子Special graph operators112(1)
相対的座標での近傍演算Neighborhood operations with relative coordinates113(2)
ラスタデータの変換と内挿Raster data transformation and interpolation 115(11)
離散的ラスタデータ自動ベクトルAutomated vectorization of discrete raster data115(3)
連続フィールドの等値線の描画を生成Generating isolines representing continuous fields 118(1)
ラスタデータのリサンプリングと内挿Resampling and interpolation of raster data 119(5)
ラスタ地図オーバーレイマージOverlaying and merging raster maps 124(2)
ラスタデータの空間分析Spatial analysis with raster data126(29)
近傍分析とクロスカテゴリー統計Neighborhood analysis and cross-category statistics126(7)
ラスタフィーチャのバッファリングBuffering of raster features 133(2)
コストサーフェイスCost surfaces135(5)
地勢と分水界分析Terrain and watershed analysis 140(13)
ランドスケープ構造解析Landscape structure analysis 153(2)
ランドスケーププロセスモデリングLandscape process modeling 155(11)
文学的、地下水モデルHydrologic and groundwater modeling155(3)
浸食と宣誓証言モデルErosion and deposition modeling158(8)
ラスタベースモデルと解析に関するまとめFinal note on raster-based modeling and analysis166(1)
ボクセルデータを使うWorking with voxel data166(3)
ベクトルデータを使うWorking with vector data 169(94)
地図の表示とメタデータ管理Map viewing and metadata management169(4)
ベクトル地図を表示Displaying vector maps 169(3)
ベクトル地図メタデータ維持Vector map metadata maintenance172(1)
ベクトル地図属性管理とSQLサポートVector map attribute management and SQL support173(14)
GRASS6でのSQLサポートSQL support in GRASS 6 174(7)
サンプルSQLクエリ属性変更Sample SQL queries and attribute modifications 181(4)
地図再分類Map reclassification 185(1)
複数の属性があるベクトル地図Vector map with multiple attribute tables: layers 186(1)
ベクトルデータデジタルDigitizing vector data 187(5)
位相データデジタル化の一般原理General principles for digitizing topological data187(2)
GRASSでの対話的なデジタイジンInteractive digitizing in GRASS189(3)
ベクトル地図クエリ統計Vector map queries and statistics192(4)
地図クエリMap queries192(2)
ベクトルオブジェクトに基づくラスタ地図統計Raster map statistics based on vector objects194(2)
ポイントベクトル地図統計Point vector map statistics196(1)
幾何学操作Geometry operations196(20)
位相的な操作Topological operations 197(6)
バッファリングBuffering203(1)
フィーチャの抽出と境界のディゾルブFeature extraction and boundary dissolving204(1)
ベクトル地図を修理Patching vector maps 205(1)
ベクトル地図インターセクディングとクリッピングIntersecting and clipping vector maps206(3)
ベクトル幾何の変換と3Dベクトルの作成Transforming vector geometry and creating 3D vectors 209(2)
点からのコンベックスハルとトライアンギュレーションConvex hull and triangulation from points 211(1)
同じ位置の掘り出し物の複数のポイントFind multiple points in same location212(2)
一般的な多角形境界の長さLength of common polygon boundaries214(2)
ベクトルネットワーク分析Vector network analysis216(11)
ネットワーク分析Network analysis 216(5)
直線的な参照システム(LRS)Linear reference system (LRS)221(6)
ラスタへのベクトルデータ変化Vector data transformations to raster227(3)
空間的な内挿と近似Spatial interpolation and approximation230(19)
内挿方法を選択Selecting an interpolation method230(5)
RSTによる内挿と近似Interpolation and approximation with RST 235(2)
RSTパラメタの調整: テンションスムージングTuning the RST parameters: tension and smoothing 237(4)
RSTの精度を評価Estimating RST accuracy241(3)
セグメント化処理Segmented processing 244(3)
RSTとのトポグラフィー分析Topographic analysis with RST247(2)
ライダーポイントクラウドデータを使うWorking with lidar point cloud data249(8)
ボリュームに基づくは内挿Volume based interpolation 257(6)
3番目の変数の追加: 高度のある降水量Adding third variable: precipitation with elevation 258(3)
ボリュームとボリューム-時間内挿Volume and volume-temporal interpolation 261(1)
地球統計学とスプライGeostatistics and splines262(1)

2008-04-11

はてブの「成長の限界」とその処方箋

要旨:

はてブシステム成長の限界に達しつつある。「現状の方式では」もはやヒューマンな方法でコミュニティコントロールするしかないが、改善の道はある。

経緯

  1. はてブはよいシステムである。
  2. よいシステムであるがゆえに、人が集まった。
  3. 人が集まったがゆえに、管理が困難となった。

問題点

コミュニティが大きくなりすぎたこと。何事も適切な規模がある。例:40人学級はありうるが、400人学級はありえない。

「分割して統治せよ」。コミュニティを適正規模に分割し、問題を局所化し、摩擦を減らせ。

問題点の細部

  1. 現状では、事実上リンク数でしかブックマークのふるいわけができない。ゆえにコミュニティは細分化されず、ただひとつしか存在しない。
  2. カテゴリが適切に分類されていない。

一時的な策

  1. カテゴリを優先する。トップページから速やかにアクセスできるようにする。
  2. カテゴリを適切に分類する。cf.図書館情報学はてなタグ統計情報新聞各紙のジャンル分け
  3. トップページカテゴリ別に編成しなおす。

ニコニコ動画トップページ、「はてブニュース」が参考になりうる。

長期的な策

  1. タグカテゴリを統合し、重要な(=人気のある)タグカテゴリのように扱う。
  2. はてブのパーソナライズを検討する。タグ別にコミュニティができるようにする。誰しも見たくないものは見たくない。
  3. 検索システムを充実させる。
  4. ブックマークを「URLにメタデータを外部から付与できるシステム」と捕らえる。メタデータが蓄積されれば、おのずと検索が容易になる。

はてなの現時点での強みは、ネットリテラシーの高いユーザーベースにこそある。これを活用しない手はない。

注:

タグは(カテゴリと違い)複数付加できる。したがって、2chありがちな問題、「あるスレッドをどの板で建てるべきか」という問題は起きにくい。(cf.カモノハシのパラドックス」)。板は決してスレッドの上位概念ではなく、単なる分類(=メタデータ)に過ぎない。本質的に重要なのはデータつまりスレッドそのもののみである。板概念を破棄すれば、「過疎板」などという存在は生じ得ない。

参考

さいごに一言

もはやネットインスピレーションサービスを動かす段階ではない。各種の専門家の知見を取り入れ、学際的に綜合して適用すべきだろう。はてな京都にいるのだから、学校の力を活用するか、優秀なユーザーに聞くのもいいかもしれない。

2008-01-16

どうして「やったーreblogされたよー」と思えないのか

という問題だと思えば法律とかめんどくさいこと考えずに済むというreblog肯定派向けライフハック

 

法とか著作権とかを持ち出すのは要するに相手を黒く(あるいは自分を白く)塗ろうとするただのロビー活動であって、それで問題が解決するわけじゃない。論争は収まるかもしれないけど、怒りだの何だのは未解決のままでしょう。法的に解決したって、イレギュラーな事例を挙げてこれもダメ(あるいはOK)なのかとか、転載ダメだから引用として体裁を整えるなどの抜け穴を活用するとか、法で負ければ次は個人の心情だの何だのを吐露して同情票を集めるとか、結局泥沼じゃん。無意味じゃん。誰が幸せになんのよ。

自分しか見れないローカルウェブ上で公開され全員が見れるパブリック一部の人だけが見れる会員制やリファラ判別など、ある条件下でのみ見れる環境限定の3つにしかアクセスレベルは分けられない(商業レベルではDRMみたいなコピープロテクト手法も取れるけど、いち個人がそれをやるのは非現実的なので無視した)。

泣こうがわめこうがスーパーハッカーの友人が居ようが、これはダメだけどこれはいいなどと個別に閲覧権を設定する方法は存在しない。環境限定が著作者の理想にもっとも近いが、リファラ判別のような古典的なものですら、実現するには技術的な知識が要るし、間違った設定は間違った結界を作る。そもそも画像が表示された画面をキャプチャされる可能性があるので完璧保護は不可能だ。出来ることといえばお願いだけだが、これも相手が良心的かつ協力的でなければ意味がないので万能ではない。もちろん、あまりに酷い例があれば裁判だの何だので差し止められるが、差し止めたければ時間的なものも含めたコストを著作者が負担する必要がある。

いい悪い関係なく、ウェブ上に何かを置く限りはこのルールを承諾しなければならない。日本絵描きが描いたイラストイタリア人が自作だと言ってロシアあたりの掲示板に貼ったのをアメリカ人がまとめてサイトを作りadsenseで儲けるかもしれない可能性は常にあるし、止めようがない。だからこそ著作者たる自分を主張したいなら、イラストサインを付けたり動画クレジットを埋め込んだりエロ画像ドメインロゴを付与したりメタデータコピーライト入れといたりして、ある程度は自衛する必要がある。

繰り返すが、いい悪いは関係ない。それが可能で、実際に起こりうるんだから受け入れるしかない。街を歩けば自動車に轢き殺されるリスクゼロじゃない。泣き言を言っても始まらない。マナーで問題は解決しない。承服できないならウェブに置かず、あきらめるか、100%ではないが「お願い」よりは強い権利が得られる商業ルートに乗せるか、マナーよりは強力な世論を形成するしか道はない。

2007-09-09

メタデータ

なんか、初めてメタデータって言葉を聞いたときwktkしたのを覚えてます。普及しましたねえ、この言葉。使われ方が、インデックスとかタグとかいろんな言葉と混同しやすいですがね。

2007-07-25

http://anond.hatelabo.jp/20070725223426

ドキュメントメタデータ作成

これは現行のブログシステムによって既に実現されているよ。それが読み上げブラウザに優しいかどうかは別だけど。TeXで書いてtex2htmlでHTMLに変換してもいいし。メタデータ作成の自動化は案外存在する。いまさらスクラッチからデザインやらメタデータ作成やらをやるのは効率悪いと思う。どうしても実現したいデザインブログシステム等では出せないのなら、プログラマ雇って、Movabletype改造させるのも一つの手かな。

http://anond.hatelabo.jp/20070725222629

この世には音声読み上げタイプブラウザがあってだな。皆がみんな、同じ画面見ながらネットサーフィンしてるわけじゃないってこと。

それは

ドキュメントメタデータ作成は本来潤沢なリソースコンピュータがやるべき仕事

なんだよ。

あるいは帯域はすでにボトルネックで無いのだから可視ドキュメントと不可視メタデータを分離するとか。

ライターデザイナーとコーダーと全部専門職で分業するよりライターデザイナーと画面読んでメタデータ作るバイトくんの方が生産性が高いと思うんだけど。

追記:アイデアメモ的に

このようにand条件を増やしていくと作業負荷は指数的に増える。

ゆえに日常で進捗させるためには各条件をorにすることが必要。

とか?

http://anond.hatelabo.jp/20070725214018

うーん、どんな絵面でもHTML+CSSで解釈(コーディング)できるかどうかって聞いてるわけではないんだ。

この中吊りを見れば分かるように写真の配置、コピーの大きさと関係、罫線の引き方、明暗のバランス…とにかく人間の目に入ってくるもの全部には「意味が付加できる」という事実があるのは分かるかな。

なのにHTML+CSSにはそのなんにでも意味が付与できるという現実からごく簡単なテキスト情報HTML)とその他(CSS)に分離しないといけないという理不尽な強制があるんだよ。

そしてテキスト情報以外は代替可能(=無価値)だと位置づけられている。

だからHTML+CSSデザインを始めるとワープロ的使い方以上の場合を志すと必要以上の制限下から作業を始めないといけない苦痛があり、既存デザインHTML+CSSに直すときには(現実 - 数段構造のテキスト情報)という負荷の高い演算をしないといけない苦痛がある。

100ページのドキュメントがあるサイトならその苦労は反復再利用でペイされる。

しかし一般化してこれからはHTML+CSSでOKと言い切れるのか?と思わずには居られない。

何が問題かというと、ドキュメントメタデータ作成は本来潤沢なリソースコンピュータがやるべき仕事なのに、人間様がまずメタデータを作ってからドキュメントの肉付けをすると言う本末転倒の設計がなされていることなんだ。

具体的にコーディングが10年前より楽になった?

ツールとかPCは早く使いやすくなったけどHTML周辺は実効果として全然進歩して無くないかなあ。むしろコードは増えてるのに未だに目でベタに確認しなくちゃいけないのとか。超泥縄じゃん。

ログイン ユーザー登録
ようこそ ゲスト さん