はてなキーワード: Windowsとは
id:yappo だけど、リソースの履歴ってのは一般的にリソース監視に使う情報じゃないかな。
http://blog.nomadscafe.jp/2010/05/cloudforecast.html
こことかでもリソース監視って言ってるけど、こういうツールを使う事で諸々の将来計画が立てられる。
windows だと
http://www.lancard.com/blog/2011/06/07/munin-node-win32でwindowsのリソース監視/
あと監視も
http://exchange.nagios.org/directory/Plugins/Operating-Systems/Windows-NRPE
こういうのあるね。
メールがお気に召さないなら
http://www.irori.org/doc/infra/wd40.html
ここに書いてあるロケットランチャーを、先輩のおっさんにぶつけるなりUSBパトランプを設置してサイレンならすなりすればよい。
Windowsのシンボリックリンクを使ってアプリケーション設定ファイルを複数のPCで同期させる
→ Google Earth の myplaces.kml とか 3GP Converter の Transcoding.ini とか
使用する同期ツールは?
前提
同期したい各PCへ SugarSync をインスコし同期させておく。
SugarSync の同期フォルダ(デフォルトではマジックブリーフケース)に同期させたいアプリケーション設定ファイルをムーブする。
※コピーに非ず
各PCで、アプリケーション設定ファイル格納フォルダに移動して、
cd C:\Users\%username%\AppData\LocalLow\Google\GoogleEarth\
mklink myplaces.kml "C:\Users\%username%\Documents\マジック ブリーフケース\myplaces.kml"
これだけ。
http://d.hatena.ne.jp/nishiohirokazu/20120323/1332504404
最近、Webクローラクライアントを作るお仕事が増えた。WebクローラクライアントというのはHTTP(S)を介して様々なファイルをダウンロードして解析し、結果を溜め込むだけのプログラムである。ボットともいう。
クローリングの規模が大きくなると、クロール処理部と結果貯蓄部を分離する必要がある。クローラには様々なものがあるが、ものによっては特定のサーバに集中的にクローリングを行うこともある。このとき、1つのIPを使って集中的にクローリングを行うと、攻撃とみなされ一瞬でbanされてしまう。そこで、一見するとまったく関係なさそうなIPを複数確保し、それぞれにクローラーを仕掛けて走らせるのである。
結果貯蓄部は、要するにデータベースサーバであり、何を使用しても良い。クロール処理部とのやりとりに使用するプロトコルはRDB依存プロトコル(MySQL Socketとか)でもHTTPでもなんでもいいが、とにかくクロール処理部が解析した結果を随時溜め込めるようにしなければいけない。逆に言うと、まぁ、口さえできるのであれば何を使用しても良い。
問題は、クロール処理部に何を使用するかである。おおまかな要件は次の通りである。
これらの要件を満たそうとすると、ぶっちゃけJavaかPythonくらいしか選択肢が無い。
Java | Python | |
---|---|---|
HTTP(S) | HttpURLConnectionかApache HTTP Client | urllibかurllib2 |
環境依存性 | Write once, run anywhere (VMが最初からインストールされてるのはSolarisくらいのものだが、どんなOSでも大体はすぐインストールできる) | UNIXであればほぼ標準で入ってる、Windows用インストーラも用意されている |
キャッシュ機能 | JDK6にDerby標準搭載 | Python 2.5からsqlite3標準搭載 |
JavaとPythonの違いは山ほどあるが、簡単なことをやらせるだけならPythonはJavaよりも使用メモリが少なくなりがちなので、そういう場面であればPythonは(現時点においては)最強の座に君臨すると考えられる。
>DNS リゾルバー キャッシュは正常にフラッシュされました。
よしよし。
>ずらずら...
おいおい(汗)
UAC か何かかな?じゃあ「管理者モード」でコマンドプロンプトを起動して(以下同じ)。
何かの常駐エージェントが仕込まれた?
たしか、以前にアンインストールした、外国製バックアップソフトに似たドメイン名だが...
まさか、ppstream みたいに、ファイル名をどこかのサーバへ送ったりしてないだろうなぁ(大汗)
【結果】
C:\Windows\sysem32\drivers\etc ファイルに、表示されてたエントリが書き込まれてた。
田舎から上京して東京のとある著名な私大に在籍。その1年目にして叔父がまさかの倒産。両親が保証人になってたせいで、家族全体として多額の借金を背負う。学費稼ぎのためにコンビにバイトを始めるが、逆に単位を落としがちになり、その結果、育英会の奨学金が止まった。生活で精一杯のため大学を中退することにした。なぜか両親の逆鱗に触れ、勘当される。このとき2000年、成人式を終えたばかりの春だった。
大学中退は高卒扱いだ。学歴を武器に仕事しようと思っていたために、どうやって生きていけばいいのか目標を見失った。一人暮らしだから無職にもなれない。まずコンビニバイトをやめようと思った。
最初は新社会人の就職活動と同じような感覚でマイナビをひとしきり見てたのを覚えてる。ここで給料の相場観を掴み、フロムエーとかanで求人を探した。技術が身につくなら何でも良いと思っていたが、求人からIT技術者人口が相当薄いんだろうという事を感じた。その結果「IT企業で雑用ができる」「初心者歓迎」のような説明のある企業に応募することが多くなった。
IT企業ではないが「システム部門での雑用」ができる中小企業があったので応募。「残業できますんで働かせて下さい、中退した理由は色々ありますが、とにかく仕事がしたいんです」と素直に申し出たところ、賞与がないという条件付きで採用された。月給17万前後。新入社員歓迎の飲み会で全裸になったのが大ウケしたのが良かった。バカ田大学のバカが来たと言うような感じでバカにされながら仕事したが、それでも真面目に雑用をこなしているうちに徐々にシスアドの仕事ができるようになってきた。
DreamWeaverで【「更新情報」ページの更新】という作業を任され、HTML学習のキッカケになった。
「とほほ」を参考に、JavaScriptが少しずつ書けるようになった。
携帯向けサイトを作ることになり、無理してPHPもPerlも覚えた。画像の圧縮処理も覚えた。
PHPを覚えるとデータベースへのSQL発行もそれほど抵抗なく身に付いた。
Windowsネットワークの調整を進めるうちにActiveDirectoryの知識がついた。
中小企業なので専門のネットワーク技術者がおらず、Ciscoコマンドを勉強できた。
この結果、最終的には社内で使うサイトを構築から任されることになった。資格でもプログラム言語でもないが「仕事する人にとって使いやすいWebサイト(GUI)を作る」というデザイン技術は確実に身についたと思っている。
働き始めて2年目で初級シスアドと基本情報に挑戦して両方とも合格した。このとき情報シスアドも挑戦したが午前科目で不合格。これは翌年も挑戦して合格した。
コツコツ貯めたはした金で、株式にも挑戦する。ちょうど紙幣バラ撒きのパフォーマンスで有名な「あしぎん株」騒動に乗っかり、30万円の大損をする。ここで自分には儲けるセンスがないことを思い知る。しかし仕事に対するモチベーションを大きく上げることになったと思う。
この会社では色々な知識が入ってきてレベルに応じた仕事ができるいい環境だが、入社条件があるだけに、どんなに頑張っても昇給はなさそうだと考えるうちに将来が不安になった。クレジットカードのショッピング枠のリボ返済がきつくなり、返済に追われるように転職を決意する。2006年。
ここで参考にしたサイトは Re就活 と マイコミ。物は試しと色々なIT企業に面接に出向くも、ほぼ全滅。採用されたとしてもマルチまがい商法に参加するような会社だったりして、入社後すぐ辞めたりした。
面接に落とされた原因は恐らく4点。
例えば「ワン側の設定もできる?」「経験のあるフレームワークは?」と言われても曖昧な返事ばかりしてた。仕事場で身につけたノウハウと、その内容を指し示す用語が頭の中で全然リンクしておらず、チグハグな回答しかできないのである。それを説明するために専門用語があるのだ、と思いながらとにかく用語を勉強した。
活舌が悪いこと。
自分の声をマイクで録音し再生してみた。そしたら実際恥ずかしい活舌だった。こんな努力は誰にも見られたくないと思いながらも、とにかくマイクに録音して治す作業で、苦手なサ行を治した。まだ治りきっていないけれど、自分の声を聴いて「自分の声じゃないわぁ」と言っているうちは自分の声を理解してない、そう思うように頑張った。
人相が悪いこと。
まずマユゲを整えるようにした。知り合いに会うたび「印象変わったねー、マユゲ剃ってるーwwwおっかしーwww」と屈辱を受けるも、なんとか耐えた。そして、2ヶ月に1回は美容室に行き短髪にするよう心がけた。最初は入るの出るのも恥ずかしかったが、2回目、その美容室のお姉さまに「久しぶりー!伸びるの速いねー!」と可愛く言われたのが妙に嬉しくて、それ以降美容室に抵抗なく行けるようになった。あと、自分の顔はヒゲがあったほうがカッコいいらしいと言うことも分かる。第三者の意見は大事だと思った。
自分に自信がないこと。
高級デリヘルを頼んだ。即解決した。あの150分は今でも強烈に記憶に残っている。
今までやってきた仕事をどう面接で表現するのか、何が目的で働きたいのか、今から働こうとするその会社に対してどのような手段で貢献するのかを正しく話すことができれば、それだけでいいんじゃないか、と思うようになりました。その結果、会社のニーズとマッチしていないことが分かれば、素直に他あたるのも大事だなぁとも思うようになりました。
上場を目指す会社に運よく入ることができ、年収が1年目350万。しかし社内システム関連業務全体における役付きの地位がまわってきて、このご時勢で入社3年目にして900万まで伸びました。そして今に至ります。
(1)1年間限定ですか?それとも、問題がなかったら、3~5年など継続して使いますか?
・通常は、ソフトウェアの瑕疵担保は1年(1年は、ソフトのミスは、開発業者が直す)。
・仮に、サーバトラブルや、システムトラブルで、システムが止まったときに、どの程度止まることが許容できますか?
・年数は、自動化するか?どうか?の見極めに使う。
月給25万のサラリーマンだと、年収300。保険等も加えると、人を雇うコストはそれなりに高い。
数年使うのであれば、ある程度、初期投資をしても良いという判断が働く。
(400万でも、5年使うのであれば、年間80万。)
普通のスタッフ一人(が専任・手動で今回の対応を行う)やとうのと、
システム400万は、会社から見ると、経費の観点では変わらない。
やってみなきゃわからないだと、あったらいいな便利機能は極力削って、必要最小限の機能で
対応して、実際のオペレーションで不便な箇所を、追加発注で、自動化等の修正してもらえばいい。
(2)個人情報を管理しますか? 初期の申込み専用のシステムですか?
・多分あると思うので、SSLは必須。ベリサインでなくても良い。
・毎年~数年毎に更新必要。担当者が変わる(自分が辞める)ことも想定して、引き継ぎ項目に加えておく。
・多分あると思うので、サーバは専用にした方がいい。(Amazon安い)
・ドメインも多分必要。毎年~数年毎に更新必要なので、引き継ぎ項目に加えておく。
(3)バックアップは必要ですよね?
・ハードウェアみたいな形があるものは必ず壊れる。オペミスで飛ばすこともある。何らかの方法で、サーバ以外に、入力データを持っておく。暗号化はしておいた方がいい。
システムは納品業者が持っているけど、入力データは持っていない。サーバが飛んだら、取り戻しがきかない。
・できれば、(お客さまの名前は伏せて)、メール自動返信する場合には、自社スタッフにもメールCCしておく(個人情報はのせない)。最悪、バックアップがない状態で、サーバが飛んだときでも、お客さまのメアドは判る。
(4)入金管理はやりますか?クレジットカードは取り扱いますか?
(WEBシステムで管理すると、顧客情報などをまとめて、CSVで落とせる。細かいところはエクセルで調整が効く)
・お金もかかる。
(6)会員サポートは、どうしますか? メールだけですか?電話対応はしますか?
・電話対応、メール対応どちらも担当者が変わる(自分が辞める)ことを想定して、マニュアルや、メールの場合には回答テンプレートを作っておく。
(7)会場の増減、時間の変更、会員のキャンセル等は、誰が、どうやって、対応しますか?
・会場の増減があるのであれば、WEB管理画面から、管理できるのがいい。CSVで落とせること推奨→エクセルで管理できる→自社対応できる
・仮に、会場の増減や、会議のキャンセル、時間変更等があった場合には、どのようにして会員に通知しますか?
システム作る方がいいけど、100名程度なら、一括送信できるWindowsアプリがあるからそれを使う。システム化すると、お金がかかる。
(8) 過去のキャンセル率、問い合わせ率を教えて下さい。もしくは、調べる方法を教えて下さい。
・100名応募で、20名キャンセルの場合、本当は、キャパあるからもったいない。
過去実績から、大目に人員を募集して、席が足りない場合には、どうにかなるか?あたりを相談。
・キャンセルは、返金等にも影響。
・問い合わせ率は、人間がやった場合の費用を算出(兼任もあるので、一概に比較できない)
システムの見積もりも聞いて、どちらが安く済むかを上司に相談。
多いのであれば、自動化推奨。
・メールアドレスベースは、管理が楽なのだが、不通トラブルも多い。
それを避けるのは、最初に、疎通確認してから、問い合わせの方式がベターではある。
・簡単に、会員様の情報をID+PWで管理できるサイトを作ると、
会社側の管理コストが減る。(最初の質問のどのくらい使いますか?によってくる)
・自動化もできるけど、最初は、手動対応推奨。(データ集めのため)
(9)デザイン、テストにどのくらいの費用がかけられますか?仕様書・マニュアルは必要ですか?
・デザインは、決定権者の好み(好き、嫌い)が入るので難しい。
・継続的な業務であれば、仕様書、マニュアルも作ってもらった方がいい。
(10)納期はいつですか? 仮に、何らかのトラブルがあって、
この3つのプライオリティはどうなりますか?優先度をつけてください。
参考までに、予算がまったくない!というのであれば、
Windowsでsshfsみたいのをしたいのです。
Dokanで実装されてるけれど、前使った時は不安定で使えなかったので。今は使えるのだろうか。IFSとか勉強するの大変だろうし…
それならWindowsから安定してアクセスできるwebdavに変換するもの作ってしまえば良いのではと思ったという次第。
でも作る気はないです。というのもWindows使わないので。というかこういうの面倒でMac/Linuxにうつったのだけど。
WindowsにはInstallableFileSystemというのがある
ああ、今じゃあメモリ2GBで32bit WindowsってんでもうDisられちゃうんだなあ。
おじさんの新入社員のころはWindows2000用のソフトウェアをWindows MEのメモリ128MBのマシンで開発しろって言われたよ。
VC6はそりゃあもう遅かったねえ。
しまいにゃHDDの基板上のチップがパッケージ不良で大規模回収になって、ロットが対象のものだって発表される直前にクラッシュしたのさ。
おじさんがその会社にいたくなくなったのはそれが最初だった。バックアップ用のHDDもなければ、CVSなんて便利なものも無かったから、自腹で購入していたノートパソコンにこっそり移していなければ、ソースが全部クラッシュしていたところだったなあ。
そういやCVS使いたいって言ったらなんか知財の関係の人に申請書を出して許可を得なくちゃいけないとかで面倒くさすぎて諦めたこともあったなあ。ie以外のブラウザも禁止だったなあ。アレも禁止コレも禁止って言った割にはcode redとか感染しまくってて笑えたなあ。
某社内でのソフトウェア技術者について書きたくなったので書いてみる。
まず、そもそもプログラミングは下請け or 子会社がやるものという認識。それを、最近本社でもソフトウェア技術者を採用し始めたけど、やっぱり低く見られがち。プロジェクトの開発リーダーは必ず電気回路の人だし、外部との折衝もやらせてくれない。工場の製造用ソフトだってハードウェア技術者が無理して書いてる。
周りのプログラマーのレベルも低いよ。自分の周りがそうなだけかもしれないけど、C言語以外できない人多いし、ポインタはおろか struct と union の違いも認識していない。環境がローレベルなのか、仮想メモリとかいう考え方もない。 Windows しか使ったことない人ばかりだし、簡単なコンパイルエラー直すだけで数時間がかり。バグ管理はもちろん Excel。ヘッダファイルの define 一覧が Excel に表としてまとめられていて、手動で同期取ってたりする。
あとパソコンに対する考え方が古いよね。未だにCADを17インチディスプレイで書いてるし。今年会社で導入標準モデルになってるパソコンはメモリ2GB, HDD 320GB しか積んでない。マシンに投資するのは無駄という考え方が伝わってくる。スペックアップを主張しても「昔はもっと遅かった」で終了。
デスマーチを避ける考えもないかな。デスマーチを乗り越えたのが武勇伝として語り継がれる。俺何日も徹夜したえらい、みたいな。
そんなくせして、「Apple は大した技術力がないけど、アイデアがよかったから iPhone や iTunes がヒットしてる」と言ってる。まずいね。
Webシステムとは縁遠い事務職のリーマンが、ある日思い立って、ニッチな用途の検索エンジンサービスを作ってみたので、ちょっと書いてみようと思います。
ちなみに、検索エンジンといっても、googleカスタム検索とかのお茶濁し系じゃなくて、apache Solrというオープンソース検索エンジンを、VPS上で動かしているという、それなりに本
気度の高いものです。
なんで素人がそんな物騒なものを動かす羽目になったかは、後述。
やりたい構想みたいなことを思いついたのは、もう6、7年前ほど前のこと。初めて独り暮らしを始めたときに、ひどく不便を感じたことがあり、こんなサービスがあったら便利だなあ、
ちなみにその妄想をふと高校の同期に話したとき、そのサービスはどこにあるのか?!と、えらくがっつかれたのを、覚えてます。まあ、俺と同じく偏執狂の奴だったからだと思います
が。
ただ、しがない事務職リーマンということもあり、当然、技術も無く、そのときは、やるならこんな名前のサービス名だろうなあ、とか、そんな妄想レベルで、話は終わっていました。
そんな感じで、5年ほど月日は経ち、なんとなくリーマン人生の流れも見えてきたところで、以前、妄想していたことを、ふと思い出しました。
5年も経ったら、さすがに自分が考えたようなこと、誰かがやっているだろうと調べてみたところ、意外なことに、競合になるようなサービスは存在せず。ちょうど異動があって、少し時
間が出来たこともあり、じゃあ、着手してみようかと思い立ちました。
やりたいことは、大手サイトの情報検索。ただ、商品ページ内の特定情報、それも、商品ごとに正規化されていない表記を、正規化して抽出する必要があったので、大手サイトの既設API
だけではとても実現不可能でした。
まあ、だからこそ、5年間、誰もやろうとしなかったんでしょうが。
ということで、とても一発では解決できなさそうな内容だったので、自分でなんとか実現できそうな機能に細分化して、各個撃破していくことにしました。
随分と考えた結果、
以上に区分できると考えて、これらを各個撃破していくこととしました。
また、技術もなく、プログラミングも出来ず、ましてやlinuxサーバのお守りをしたことなんて当然ないので、インターネット上に置くサーバですべての処理を完結させるのではなく、イ
ンターネット上に置くリソースは最小限に留め、できる限り、勝手がわかる自宅のwindowsパソコンで処理を行うことにしました。
ちなみにさらっと結論だけ書いてますが、ここまで至るまでに、いろいろと調べ続たり、考え込んだりしていたので、思い立ってから3ヵ月は掛かってます。。。
さて、やる方針を決めたあと、はじめに着手したのは、要の検索エンジンサーバです。
いろいろとググって調べて、mySQLというやつか、apache Solrというやつかに絞りましたが、結局、Solrを使うことにしました。
MySQLのほうが実績は多そうだったのですが、Solrのほうが検索専門で、滅茶苦茶動作が速いらしいということ、MySQLでも出来るが特に速度が遅いらしい全文検索機能も使いたかったこ
と、あとファセット機能がジャンル絞りこみに便利に使えそうだったので、というのが理由です。
ちょうどSolr本が発売されていたこともあり、それを参考に、自分が使うように設定ファイルを変更していきました。
しかし、初めは設定ファイルの内容も意味不明な上に、私の書き方も雑なのか、少しいじっただけでまったく動かなくなる。結局、設定ファイルを一文字ずつ変更しては動作検証、とい
った始末で、進捗は地を這うよう。ある程度思い通りにSolrを扱えるようになるまで、3ヵ月以上掛かったでしょうか。。。
さらに、検索エンジンのフロントエンド(Solrの検索結果を、htmlに変換するプログラム)も書かなければならない。プログラミングが出来ない人間には、これが本当に辛かった。
Solr本に、いろんなプログラミング言語でサンプルがあったのですが、迷った末に、わずか数行なら書いた(≒コピペした)経験があるという理由で、javascriptを苦渋の選択。
しかし、選択はしてみたが、基礎が本当に無いから内容がサッパリ頭に入ってこない。こちらも、わかるところから本当に1文字ずつ変えていくといった手探り状態。
プログラミングについては、今回のためだけだから、といった理由で、一切基礎をやらずに着手したのが裏目に出たのか、サンプルのソースをモノにして、書き上げるのに、ゆうに半年
以上。本当に時間が掛かりました。
さらに、Solr周りで計9ヶ月間ハマっていた頃、忘れもしない、kanzen21のおっさんが彗星のように現れて、衝撃を受けることになります。
大手サイトのページをクロールして検索エンジンを作る手法は、私と考えていた構想の枠組みとまさに「完全に一致」な訳で。。。
図書館事件に注目していたのも同じで、あまりの一致具合に衝撃を受けっぱなしでした。
その後の成り行き等も含めて、興味深く観察させて頂き、本当に参考になりました。
そんな感じで紆余曲折もありましたが、ようやく難題だった、プログラミング関連に目処が立ってきたので、あとはクローラと肝心のデータ処理です。ここからは、勝手知ったるwindows
まず、クローラですが、専用のクローラをwindows用に探してきたり、それを設定するのも大変なので、今回はテレホーダイ時代に使っていたような、フリーのweb巡回ソフトを利用する
こととしました。指定のhtmlをダウンロードしてくるだけなので、別に変に新しいものに手を出す必要もないので。
また、ダウンロードしてきたhtmlファイルについては、これまたフリーの日本語処理ツールでcsv方式に加工することにして、処理ルール部分を相当に作り込みました。
このあたりは、全体を通して見てもキモの部分なんですが、ある意味、ちょっとしたパズル感覚だったので、プログラミング言語の部分と違って、かなり楽しかったです。
あとは、msdosのバッチファイル(これは前から知っていた)で、これらの処理を繋ぎ、cygwinのcurlとかいうツールで、連続して検索エンジンサーバにcsvファイルをアップロードする
仕組みを作りました。
検索エンジンサーバには、容量は少ないが、安くて高性能という、今回の用途にピッタリだった、さくらのVPSを借りて設定。CentOSのサーバ構築ホームページを見ながら、サーバとか
Solr管理URLとかにセキュリティを掛けて、こちらも素人ながら、意外とすんなり設定。
ホームページは、vpsサーバに相乗りさせるのではなく、別にさくらのレンタルサーバを借りました。apacheの設定方法等を習得する必要がありませんし、vpsのリソースをapacheと分け
合う必要が無くなるので。ホームページのhtmlファイル、cssファイル等も調べながら設定し、画像も準備しました。
あと、構想を思いついたときに妄想していたサービス名の.comドメインは、すでに他者に取得されていたのですが、どうも使っている風にも見えなかったので、whoisで出てきたメールア
ドレスに連絡して交渉し、幾ばくか払って買い取りました。
結局、足かけ18か月。ようやく完成。
楽天市場の家具を、幅x奥行x高さ(家具サイズ)で検索できる、楽天市場・家具カテゴリ専門の検索エンジン
この商品数規模(データ収録約30万アイテム)で、1センチ単位で家具のサイズ指定検索が可能な手段は、商用サービスも含めて、ほかには存在しないと思います。
kanzen21と違って、エロじゃないから華はないけどね。。。
ちなみに冒頭で少し書いたきっかけですが、就職して独り暮らしを開始したときに、新しい家にピッタリサイズの家具が欲しかったのですが、これが楽天で探すのは至難の技でして。
楽天で家具を探してみようと思った人には判っていただけると思うのですが、楽天では、価格では範囲指定やソートができても、サイズでは検索出来ないんです。
これは、楽天では、商品のサイズ情報は商品の自由記述欄に記載することになっているためで、商品ごとにサイズの記載方法がバラバラのため、検索が事実上、不能となっています。
家電製品とかに関しては、種類が少ないこともあり、メーカーのホームページとかでサイズを確認した上で、商品型番で検索すればいいので、それほど問題にはならないのですが、家具
って、種類が非常に多く、型番もあったり無かったりで、家電のようにサイズを調べることができません。
・・・ということで、カグサイズでは、楽天の商品ページにいろいろな書式で書かれているサイズ情報を拾って解析して正規化し、範囲指定やソートして検索ができるようにしています
。
また、単に寸法サイズを拾うだけでは、梱包サイズとか引き出し内寸とかも引っ掛かってしまうので、それらは出来るだけ排除して、商品の外寸が優先して引っ掛かるよう、アルゴリズ
ムを調整しています。
単位(センチとミリ)に関しても、商品ごとにバラバラ(単に単位だけでなく、商品説明のどこに"センチ"とか"ミリ"と記載しているかについてもバラバラです。)なので、サイズ表記
の前後の状況をみて、正しいと思われる単位で拾うようにしています。
あと、変わった使い方としては、欲しい家具の価格比較みたいなこともできます。
家具は、同じ商品でも、店ごとに型番が違ったりすることがよくあり、簡単には価格の比較が行いづらいジャンルの商品です。
しかし、型番は違っても、同じ商品なら原則、サイズは同じですから、欲しい商品とまったく同じサイズで検索をかけると、同等商品があるのかどうか比較しやすい・・・といった使い
方もできます。
と、そんな感じで、しがない事務職リーマンが作ってみた、ニッチな用途の検索webサービスを、サービスインさせて頂きました。
一般に公開されていて、誰でもアクセスできる情報でも、ニーズが有りそうな切り口の条件で検索性を高めれば、新しい価値を創造できるんじゃないかという実験です。
もしよろしければ、ぜひ、使ってみてくださいー。それでは!
----------
先日、TBSの番組「夢の扉+」を見ていた。TBSの中で視ているのはこの番組だけだが。先日のテーマは「小さな町工場から日本の製造業を支える!」というもので、職人集団「チーム等々力」の免震テーブルの開発について綴られていた。
確かに、各職人の技術はすごい。ああいう職人技が日本を縁の下の力持ちとして支えているのも事実だと思う。例えば、新幹線の先頭ノーズはあれは職人手作業じゃなかっただろうか?
違和感を感じたのは、「職人が大学教授の求めているモノを理解出来ない」という点だった。結局番組では理系大学出身の技術者が、大学教授の要求(要件定義)を職人に分かるように図面に起こした事になっている。
それでいいんだっけ? 図面になっている物は作れるが、図面を起こす事が出来ないということだろうか?
我々IT技術者は、顧客のまだ具体的になっていない要求をヒヤリングするところから始まり、要件定義をし、設計し、実装し、テストし、納入し、運用・保守をする。だから、顧客の専門用語や技術も分からなければならないし、情報技術も分かっていなければならないし、運用・保守コストも考えなければならない。それに情報技術は進歩が早いにもかかわらず、分野によっては製品寿命が20年とかいうのもあるから、新技術だけ知っていても話にならない。
「チーム等々力」の方々は、いい製品を作るかもしれないけれど、IT業界的に言えば、コーディングだけ、という事に。否、それでも範囲が広い。コーディングは一種の「設計」でもあるから、範囲はもっと狭い。
そういえば、ITで「制作・製造」ってどの部分を指すんでしょうね。もしかして、コンパイル・リンクしている時間だけかも。なにしろ、コーディングも設計の一部であるから。
自分は、顧客の要求をヒヤリングするところから、運用・保守まで全てに関わっている。ヒヤリングしている時点でどう実装すれば良いか、どう保守するか、保守のための実装はどうするか、を考えながら顧客と接している(ここでいう実装とは、ハードウェアも含む)。
かなりゼネコン化されているので、元請けが仕事を取ってきて、こちらに仕事を発注する事になる。その時点で、かなりの情報が欠落している。元請けの方は、顧客(この場合エンドユーザー)の専門が分からないまま受注している事が多い。その上、実装を分からずに発注してくるから、かなり困る。結局、元請けに対し、かなりの懸案事項が発生する事態となる。顧客に対してこの設計では足りないとか、設計に対し実装不可能とか。それをいちいち指摘しないとならないが、これが時間がかかる。
こういう案件がたくさん来ると、今度は実装出来る人間に限界が出てくる。なので、実装するのをさらに下層の外注ソフトハウスに出すの事になるのだが、今度はこれが、エンドユーザーの事が分からないため、なんだかよく分からないブツが上がってくる。その上、金の切れ目は縁の切れ目だから、運用保守に関しては全く考慮されていないブツ。もちろん、中には優秀な外注さんもいて、すばらしいコーディングのブツが出来上がってくる事もあるが、そういう人に出会える確率は万分の一程度か。
そこへ追い打ちをかけるように、コスト低減要求と短納期要求、仕様変更。人月の神話。
顧客の頭の中を覗く人、顧客の要求を情報技術者向けに翻訳する人、翻訳されたものを実装する人、実装されたモノをテストする人、テストし終えたモノを納入・設置する人、運用・保守する人、がそれぞれ分業・連携取れていないのが、現日本のIT産業の姿です。
最近は自社の社員も質が下がってきていて、Windowsしかいじれないとか、統合開発環境内でしかブツが作れないとか、コンピュータがどう動いているかイメージ出来ないとか、果ては、顧客の専門用語が分からない、というのもいる。ソフトハウスに至っては、作ったはいいが、作ったモノに対してデバッグ出来ないとか言い出す始末。
というわけで、就活生には、ITはお勧めしない。もし、プログラミングだけしていたいというのであれば、メーカーではなく、小さなソフトハウスに就職した方が良い。でなければ、顧客と対等(同等)の(製品)知識と、新旧情報技術に対応出来るだけの能力が必要とされるのである。
2.iCloudSetup.exeを解凍(Lhaplus等)
4.32bitの場合はiCloud.msi、64bitの場合はiCloud64.msiをORCA MSI editorで開く
5."LaunchCondition"をクリック
6."VersionNT>=600[ProductNameLoc…"を削除!
7.セーブする。
8.編集したiCloud.msiまたはiCloud64.msiをダブルクリックしてインストールする。
office2007以降は必須。office2003でメール、連絡先等の同期は不可
2011-10-21 21:16 nice!(0) コメント(1)
------
> は半角の>
The faster a computer goes, the more likely is to have Linux at its heart. The most recent Top500 list of supercomputers shows that, if anything, Linux is becoming even more popular at computing’s high end.
In the latest Top500 Supercomputer list, you’ll find when you dig into the supercomputer statistics that Linux runs 457 of the world’s fastest computers. That’s 91.4%. Linux is followed by Unix, with 30 or 6%; mixed operating systems with 11 supercomputers, 2.2%. In the back of the line, you’ll find OpenSolaris and BSD with 1 computer and–oh me, oh my–Windows also with just 1 supercomputer to its credit. That’s a drop from 4 in the last supercomputer round up in June.
Digging deeper, we find that various customized Linux distributions account for 414 of the supercomputers. AIX, IBM’s house brand of Unix, takes a distant second place in individual operating system distributions. It’s followed by various versions of SUSE Linux Enterprise Server (SLES) and a variety of Red Hat Enterprise Linux (RHEL) variants including the RHEL clone CentOS. Compute Node Linux is the last significant solo Linux distribution on the list.
Other operating systems that just make the list includes Oracle’s all but dead OpenSolaris with one entry. The sole Windows entry, Windows HPC 2008, placed 58th.
So, while Linux has only a minute share of the desktop, a big chunk of the server market, is the platform for most Web servers, when it comes to one arena: the fastest of the fast, supercomputers, Linux absolutely rules.