はてなキーワード: デフラグとは
おっしゃるとおり目的のデータにすばやく再度アクセスするためにデータを取っておいて
次に使うときに同じものであればいちいち取得しなくても手元のデータを展開するだけですむ
または新しくなっていたら差分だけもってくるようにするのがキャッシュの目的です
キャッシュを使うとインターネット速度、画面の描画計算速度などがハードディスクのアクセス速度で行えるようになる算段となっています
ここから先がマニアックな話なのですがキャッシュがたまるとパソコンが遅くなります
キャッシュがたまるのはハードディスクの容量にデータが蓄積されるからです
ハードディスクにデータが蓄積されるとアクセス速度が落ちることをイメージしていただくために、ハードディスクをA4大学ノートだと思ってください
ID0(アイ ディー ゼロ)と表紙に大きく書かれたノートが、ハードディスクドライブです
これをCドライブとDドライブにわけるため、ノートの半分あたりで「ここからDドライブ」と書き込みます
そして半分から前をCドライブと呼称してシステムやらキャッシュやら仕事のデータやらダウンロードファイルを書き込みます
仕事のページがA4半分で済んだので半分空白のページや、ダウンロードファイルのサイズが小さかったのでほとんど白紙のページとかできてきます
そしてキャッシュのサイズがだんだん大きくなってくると、あらかじめ「このページを含む3ページはキャッシュに使う」と予定していたページで足りなくなってきます
たりないままでは作業ができないので他ページの空白を利用してキャッシュを書き込んでいきます
キャッシュがたまりきった状態であたらしく「簡単なホームページ閲覧」作業が新規に発生したとします
簡単なホームページをクリックして閲覧する内容データがダウンロードされてくるわけですが、表示するために「キャッシュ」するデータがいろんなページの空白ページに分けて書き込むことになります
ここまでは32ページ ここからは54ページ つぎに68ページ と、場所と内容と続きのしるしを含めて どんどんわけていくのですっきりしたCドライブの中では1ページに書ききる量のデータでも
最終的には2ページ分になっていたりすることも、あるかもしれません
そして暗号のようなつぎはぎデータを、仮の場所でつなぎ合わせて描画する結果になるので、メモリも少なくなっていきます
(描画のために読み出すメモリの消費量は同じで終了すると開放されるのですが、作業完了までに張り合わせる作業をしている最中に別の作業分のメモリ消費が重なってくるので読み込みが遅いと同時期に発生するメモリ消費が大きくなります)
このキャッシュを他ページにつぎはぎに書き込むのと、自分のデータを増やしていくページ消費をミルフィーユのようにかさねて真っ黒なA4大学ノートができあがります
こんなしくみで、「まっしろな大学ノートにたったひとつだけデータが書かれている」アクセスは超早いという予定になります
ということから、ハードディスクに空き容量がたくさんある、そしてデフラグすることで個々のデータがバラバラになっている状態をできるだけひとつにしていくことが動作の速度を上げる手段のうちに数えられます
Macの場合はリナクスベースで特殊なフォーマットを使っているとバラバラに書き込まないのでデフラグは必要なくなります。
(Macの場合は大学ノートに書き込む前にキャッシュ用に切り分けたドライブを利用して下書きをしてその大きさに合わせてノートに書き込みます このため書き込む作業時点で下書きをバックアップとして作ることが出来たりします)
いくら整理整頓されていても見出しに何百件も書き込まれているのと用件がほとんど書かれていないのでは速度がかわってきます
もちろんディスク単位で用事を書き分ける、ノートごとにキャッシュとか写真とか書類とか、CドライブDドライブEドライブとわけていけば速度は向上します
ここまでだと「クリーンアップするソフトの宣伝」と感じられるかもしれませんが、私自身あまりそういう系のソフトはおすすめしません
できることなら必要なファイルを新しいハードディスクに全部コピーしていってデフラグの代わりとしてOSも世代交代させる とかいうのが一番ベストなパソコンの状態維持だと思いますがお金と時間の問題があるのでそうもいかないときにはやむなくソフトをつかいます
さらにここからはパソコンと関係なく想像するイメージの話なのですが、自分の使っている歴史ある馴染みのA4大学ノートにみっしり書き込まれたデータを「これ整理しといて」と人に渡したりできるものでしょうか
そういう作業をソフトにさせて安心の環境になるのであれば、そういう使い方をしていたのだから問題ないと思いますが、Cドライブのあいてる場所に思い出の写真をカメラ付属のソフトで保存してたらゴミと思われて完全消去されたとか「一般に」とされている設定を完全網羅した状態で作業してもらわないと「後から設定した個人ごとのオリジナル」が含まれている場合があります
クリーンアップソフトを使って何も問題ない人という基準は「どんなパソコンからでも自分の設定を再現できる人」を頂点として「ディレクトリって何?」みたいな方までを範囲とするとそう多くない気がします
なにかしら問題が発生する可能性があり、それを回避したり回復できたりする人は半分以上になるかもしれないと思いますが作業の重要度は「新品のパソコンに買い換えるとまではいかないけれども、中古なり他のパソコンに買い換える程度の作業」を担う可能性があるソフトではあります
なのであんまりこれいいよと気軽にお勧めするには「完全にバックアップとリストアをフォローしている」なども含む必要があると考えています
要項として「くれぐれもバックアップは」と記述されていますがそれが任意である時点で「作業の規模や危険性について利用者に理解が十分されていない可能性」を抱かざるを得ないので記事のソフトはいまいちな気がします
それでもソフトが必要だと思われる方は、ご自身の必要性にマッチしているか以下の点から考察されて判断されてみてはどうでしょう
・ファイル整理・レジストリ整理の高速化ソフトは「新しいパソコンの購入とほぼ同じ意味を持つソフト」
・新しいパソコンを購入した際に発生する手間とコストを比較して安価である そのかわり全部喪失して新しいパソコンを買うリスクもある
(基準としては新しいパソコンの値段と同じ=完全再現が可能、安くなる≒価格差の分だけ失敗の可能性と他作業発生のリスク、高い≒現在の環境を再現または他環境での設定や構築作業などをしやすくする機能や設定がある)
価格が安いソフトであればあるほど危険ですが価格設定の由来が他研究の副産物であったり機能限定などによるものや、サーバー用バックアップソフトなど環境を複数設定することについて対応しているものは高価(バックアップ機能をファイル整理として使うという意味において)、などあります
・いずれはパソコン本体、OSも市場の変化によって「価格ゼロ」という将来がくるかもしれない、それまでの下降線の途中として「パソコン買い替え、最適化維持、現状維持」のバランスで設定された値段において現在利用の環境がその購入価格でいつまでの延命を必要としているか
たとえばクラウド機能などは「最適化0円」で、「将来的にパソコン機能がクラウド化」した状態が来年にも来れば「来年クラウドOS導入に5000円だと想定して、現在の最適化ソフトが2000円であれば現状のパソコン設定を来年度の状態に移行するにあたって計7000円のコストから、最適化状態での生産性は現在の7000円以上になる(たとえば、1ファイルダウンロード1分のものが3分、3倍になっているとしてインターネット接続料月額4000円がクラウドOS発売そして導入まで6ヶ月あったとして24000円のうちダウンロードに費やすインターネット使用時間が全体の約半分はあったとしてダウンロードを実行している環境下でのパソコン稼動についてインターネット料金のみで約5000円程度の潜在コストダウンがあればそれを必要とするか等)かどうか」や次の新しいOSやパソコン購入までの期間と手間を現金としてのコスト換算をするかどうか
ちなみにこれらの検討での数字はご自身の時間単位での価値やパソコンを利用されている人数などにより変化するものです
・キャッシュは高速化するためにあるもので、それ自体が鈍足化に貢献しているパソコンはどう調節しても結局手間かお金を必要とします
かしこいパソコン(ソフト)は必要な期限や状態、時期にあわせて削除を行いそれがバラバラになりすぎないようにできるだけ調節されています
・ぶっちゃけパソコンが一番はやくなるのはSSDに入れ替えること
もちろんユーザーの獲得と商品としての価値があってこそのソフトなので、全部ダメになるとかいう最大のリスクは回避されていて製品化されていることはもちろんあるということを前提に「そのソフトが原因で全部ダメになる可能性があった、実際だめになった」としてもご自身のバックアップ以外にそれを救う手段がないこと、ゲームソフトやメールソフトと違って「消す、入れ替える」を行うソフトであることはご理解ください
補足求められたので少しだけ書く。
https://market.android.com/details?id=com.disk.defrag.rubiks&hl=ja
私は起動してません。
あちらこちらで見られるスクリーンショットと、逆コンパイラ結果からの推測です
ちょっと調べればわかりますが、あえて書きません。
個人的に、クラックの入り口になる知識を非アプリ開発者に広める必要性を感じていないので
わかる人に検証してもらってください。
私が検証したのはバージョン1.0です(難読化はされていませんでした)
以下のurlにアクセスしてデフラグしているふりをし、Javascriptを介してアプリ側のダイアログを出す
http://rubiks.adzoone.com/defrag/index.php
魚拓(貼り方あってる?)
http://megalodon.jp/2011-0921-1203-48/rubiks.adzoone.com/defrag/index.php
http://anond.hatelabo.jp/20090917201807
ってのを見た。
未だにVistaがオフィスに入らない理由としては、重いとかではない。
実際、Vista Ult(32bit→64bit)を、それなりにリソースたっぷり(Core i7)のPCで使い続けてみたけど、XPと比較して、OSのせいで処理が遅くなるとと感じるケースはあまりない。(但し後述で一部訂正する)
ビジネスで使われるPCってのは、今まで何とかPCで仕事をこなせる程度の、一般的なPCスキルの持ち主を想定しなければならない。
この層が、Vistaや7を使いづらいと感じてしまうのであれば、それは抵抗されるに決まってるわけで。
1)UACの問題。いちいちダイアログが出るようでは、OSの事など知ったこっちゃ無いユーザーには恐怖しか与えない。(Win7では改善される)
2)XPであれば周りに操作を聞いたり相談したり、Tipsを交換しあえるのに、そんな中でVista渡されたら、こんなのどう使うのって怒られる。間違いなく。
3)勝手にタスクで色々管理する。デフラグがデフォルトでスケジューリングされてるとか、何なの一体。(Win7でも改善されない)
4)見た目が変わる。いや、冗談ではなく、それだけで嫌がる人はいるんです。(Win7はもっと酷くなる)
次にリソースの問題。
一般的な職場を見渡せば判ると思うけど、基本的に職場で使われるPCってのは、5年程度使われるモノ。(リース契約とか使ってね)
2年前のPCなら、まず基本状態でVistaは稼動するだろう。けど、それ以前のPCはどう?といわれれば…ね。
さらに、環境の問題。
XPとVistaが混在している環境なんか、管理側からしたって想像したくない。
そして管理Server自体が2003Serverだったら。
いきなりVistaをクライアントとして放り込むわけにも行かず、かといって2008Serverにリプレースするなんて、面倒でしょうがない。
結局、職場でVista(Windows7も同じだけど)を導入するってことになれば、基本的に部署単位より大きな単位で、一括でごっそりやるしかないわけで。
PCの価格は下がってるし、一括導入をするコストは確かに安くなってはいるけれども、「今の状態を維持」するコストが、「Vista/7を導入して出てくるメリット」を凌駕するとはとても思えないんだよね。
さらに言えば、職場でPCを大量に導入する場合は、環境を色々同一にしなければいけない(職場毎の基本カスタマイズが必要)なのだけれども、Vistaを導入する場合、やることが多すぎる。管理者側からして、2003ServerとVista(または2008ServerR2とWin7)との連携を勉強しなおさなきゃいけない。
これらを踏まえて、たとえばPCを職場で大量にWin7で置き換えると考えてみよう。
導入までに掛かるコストの割合は、
・PCリース契約のやり直しと新規契約(OS代はここに含まれてしまう。) 30%程度
・運用管理用Server(Domain管理/FileServer/その他色々)の新規購入orリプレース 30%程度
こんな割合になるんじゃないだろうか。
だから、いくらWin7の価格を安くしようが、PCを安くしようが、屁のツッパリにもならんくらいしか、全体のコストは下がらない。
更に、ネットワーク構成の見直しやら旧環境との相互運用なんてものまで考えだしたら、運用側としては逃げ出したくなるね。
こういう風に、職場にVistaや7を入れるには、掛かるヒューマンコストが半端でないってことを、きちんと説明しているIT系サイトが少なすぎるよなー、と感じる次第。
結局、Windows7が出荷されたとしても、XPのサポートが切れるとか、リース契約が終了するとか、運用管理サーバを何かのきっかけでリプレースするとか、そういう事が無い限り、各現場がWindows7をバンバン入れるなんて幸せな路線は、ありえないという、お話。
個人的には、XPのサポートが切れたとしても、サードメーカーが「ウチがXPの面倒みまっせ」と手を上げて、そのサービスが大人気…なんて商売がなりたつんじゃないかと思う。致命的なセキュリティバグが出ない限りにおいて、だけども。IPv4の限界に達するまでは、おそらく職場ではXPの天下が続くんじゃないかな。いや、それですら逃げ道はあるんだけども。
追記:Vista/7に関しては、その利用に関して2点「直接的な問題」もある。
1つ目は、バックグラウンドで動いているサービスが多すぎること。(Windows7では少し減ったみたいだけど)
処理に関してどれだけ性能の高いPCを使っていても、正直言えばXPや2000の軽さは望めない。1つのプロセスの処理時間そのものは変わらなくても、どこと無くもっさり感を感じてしまう…という体験からは、逃れられない。
とはいっても、XPも登場当時はこれで散々叩かれたわけで、慣れの問題かな。
2つ目は、同時に導入されるであろうMS-Office2007。これは家庭向けPCではあまり気がつかない(導入されていないケースが多いから)、最悪の問題だ。UIへの戸惑いは、PCスキルが無い人にとって致命的過ぎる。Win7ではこのUIがアクセサリまで進出してるって?どんだけ。
追記の追記:最後に忘れてた。Office2007に入ってるIME2007!一番操作感を左右するであろう文字入力変換で、こんなバカ重いソフトなんか使わせたら、絶対クレームモノだ。とっとと窓から投げ捨てろ。どんだけ性能高いPC使ってても、これだけは導入禁止。
本日午前2時からAppleのイベント「it’s only rock and roll」にて新製品を発表予定、現地は今どうなっているのか?
http://gigazine.net/index.php?/news/comments/20090910_its_only_rock_and_roll/
と記事はさもGizmodoやEngadgetクルーの現地中継風に伝えてるものの、
膨大に貼られた画像の大半は、海外の大手ipod情報サイト、iloungeのflickrアカウントから。
http://www.flickr.com/photos/ipodlounger/page4/
画像にリンクを残すことで一応「盗用ではありません」というアピールなのだろうか?
だが、使われている画像は決して「CC」ではなく、はっきり「All rights reserved」って書いてあるけど、
mixiやらに二次配信してる商用サイトが、無断で転用しちゃって大丈夫なのか?>GIGAZINEくん
だいたい冒頭の「当日のリアルタイム更新を記録した様子は以下から」ってなんだろう?
いっそ素直に「人様のサイトのリアルタイム更新を丸パクリして、バカな多くの読者はギガジンが行ったと勘違いしてくれそうな記事は以下から」にした方がいいんじゃないか?
例えば
会場の中へ
http://gigazine.jp/img/2009/09/10/its_only_rock_and_roll/apple_06.jpg
やっぱり、ただのバカが見たら「行ったんだな」って思わせるように工夫してるよね。
でももしほんとに行ったのか?と突っ込まれたらすぐに「実況中継まとめ」として
逃げれるように文章にも写真の選択にも巧妙に逃げ道も残してるよね。
でもどこかで「行ったと勘違いした人がいればラッキー」という意図が見え見えで実にいやらしい。
たしかにmixiとかに配信してれば、読者なんて大半は何も気づかないただの馬鹿だ。
だけどね、見てる人はちゃーんと、見てるんだよ。>GIGAZINEくん、いや山崎恵人くん
こういうみみっちい事ばかりくりかえしてると、一個一個は小さくても、だんだんと積み重なっていくぞ。
ボディブローのように積み重なって最近みたいな状況(デフラグツールとかの記事しかホッテントリに入らない)
ようなことになってきている。いよいよガジェットニュースに抜かれちゃうぞ?
参考
性に基づく差別的振る舞いやステレオタイプを許容するものであり、これは女性に対する暴力を維持する。エロゲは女性じゃないですよ?。ドット絵ですよ?。まずここが勘違いの元です。
最近、プロバイダーをYahoo!BBに乗り換えたら、初っ端からYahoo!メールに怪しいスパムメールが届き始めたよ。gooメールではこんなこと無かったのに。
私、Yahoo!って今まであまり使っていなかったんだけど。
Yahoo!って、わけわからん業者からターゲットにされやすいのね。もっとマイナーなプロバイダーならターゲットにされにくいだろうに。
一応、ノートンアンチウィルス2009をPCに入れてあるからウィルスは大丈夫だろうとは思うけど、入っているのはノートンインターネットセキュリティー2009ではないので、ファイアウォールはついていない。だからいまはファイアウォールはWindowsXPのハードにデフォルトでついてるやつに頼っている。
前はゾーンアラーム君がPCを守っていたが、ノートン君とは仲悪いらしくてゾーンアラーム君はもう諦めた。
ノートン君は狭量な奴だけど、買ってしまった以上はもったいないから使いづづけようと思う。
しかし、このノートン君は私のPCからウィルスを3つも検出してくれた。
トロイの木馬とハッキングツールとスパイウェアと豪華キャストの面々が発見された。
前にノートンアンチウィルス君を2002から更新しサボっていたたツケだ。
どうりで近頃デフラグが酷かったはずだ。
でもサックっとウィルス駆除したら見違えるようにデフラグが直った。
でもこれから、わけわからん業者からの迷惑メールにもウィルスが潜んでいる可能性があるし、第一ウザいから、なんとかしたい。
Yahoo!側も迷惑メール対策を講じているっぽいが、あまりあてにしていない。
そこでOEの代わりにウィルスに強そうなメーラーを探していて、乗り換え候補に考えているのが、Thunderbird 2か Shuriken 2009だ。
どちらも、ウィルスに強いメーラーのを歌い文句にしているけど、どちらにしても信頼性いう点でどちらがいいか迷う。
どうしようかなぁ。
先日、妻のPCの調子が悪いと言われ頼まれて調べていたんだが
キャッシュの削除やデフラグなど、通り一遍のことをやってるときに
ゴミ箱にファイルがたまっていたので「削除していい?」と聞いて
削除しようとしたんだけど、その前につい中身を見ちゃったのよ。
不審に思ってブラウザの履歴を見てみると、SM、女王様、奴隷など
怪しげなページへのアクセス履歴があって、なかでもM男募集などの
そういった趣味があったのを知ったのも始めてで、ショックなんだが
サイトを見ているだけでなく募集の掲示板にアクセスしてるってことは
もしかしたら会ってるんじゃないかと疑惑が深まるばかり。
ただ確証はなんにもない。
他人とそういった行為をするのは絶対許せん。
ずっと専業主婦してるから昼間外出していてもわからないし、
家にいるかどうかをチェックしだしたら不審に思われるだろうな。
このまま疑い続けるのはつらいが、
聞いたところではぐらかされるだけだと思うし。
どうしたもんかな。
(http://www.kev009.com/wp/2008/11/on-file-systems/)
訳した。分からなかったところは英語のまま。ファイルシステムについて完全な素人なので変な所があるかも。
ファイルシステムはOSの重要な要素だが最近ではあまり関心を払われていない。ビットが入ってきてビットがでていく……デスクトップシステムにとっては、たいてい十分に働いてくれる……ただし、電源が落ちるまでは。しかし、そんな状況ですら近頃ではあまり困ったことにはならない。
Linuxのファイルシステムの分野には競合製品が多い。ext2が長い間標準とされてきたが、2001年辺りから他の選択肢も主流となった。あまり歴史に深入りせずに要約すると(順番は適当)、ext2が進化してext3となり、ジャーナリング機能が付いた。ReiserFSがリリースされた。SGIはXFSを移植した。IBMはJFSを移植した。
いくつかの理由があって(主に政治的な理由で)ext3がLinuxのデファクトのファイルシステムとなった。
私が古典的ファイルシステムと呼ぶとき、基本的にいつも同じ概念を指している。つまり古典的なUnixレイアウトのファイルシステムにジャーナリング機能を追加したものだ。ここに述べるのは、それら古典的ファイルシステムのハイライトである。
これは後知恵だが、JFSやXFSが牽引力を持たずに、ext3が人々を古典的時代に停滞させたのは一種の悲劇だった。しかしながらext3は信頼性を証明し、きちんと動くように一貫として保守されてもいる。
2005年にSunはZFSという爆弾をリリースした。ZFSは私が次世代ファイルシステムと呼ぶ時代への案内人である。
ハードディスクが大きくなるにつれて、バックアップの戦略、完全性(integrity)の検証、巨大なファイルのサポートは前より遥かに重要になってきている。
ここあげるファイルシステムは古典的なVFS lineを曖昧にしたりLVMとRAIDを強固な結合することによって管理を楽にする事を目的としている。
ダメなハードウェアで起きる静かな(観測されない)データの破損も心配の種である。これに対抗するために、次世代のファイルシステムはチェックサムを供えている。
いろんな意味でLinuxのコミュニティーは完全に油断しきっており、多くの開発者はZFSがリリースされるまで次世代ファイルシステムについて真剣に考えてこなかった。Reiser4はいくつかの新しいアイデアを持っていてキラーファイルシステムとなろうとしたが、Hans Reiserは、他のカーネル開発者との著しく酷い関係を楽しんでいたのだった。ただ幸運な事に、いまではいくつかの、より先進的なファイルシステムが登場しようとしている。
kernel 2.6.28と一緒にext4がリリースされるが、BtrfsやTuxs3が安定するのを待った方がよい。Btrfsの開発陣は短距離走開発を行っているので、Linuxのカーネルの開発サイクルに次か、あるいはその次で取り込まれると思われる。
SSDが普及するのは明白だ。理論的に速度の面で磁気ストレージより圧倒的に早く、現実にも既に書き込み速度が追い付きはじめている。最新のIntelのランダムアクセスやIOPSは非常に印象的である。Btrfsは当初からSSDへの最適化を取りいれようとしている。しかし、これらの新しいデバイスは、更に速度の早い新しいファイルシステムを生むだろう。
私自身の考えでは、ウェアレベリングやFATエミュレーションがSSDの性能を押し止めているため、 新たなファイルシステムが登場すればパフォーマンスを改善できるだろう。
EASEUS Partition Managerhttp://www.forest.impress.co.jp/lib/sys/hardcust/defrag/easeuspart.html]を使ってみた。
Cドライブの容量が少なく、デフラグもできない、というユーザーが2名いたので、1名を人柱にして実験。問題なく終了し、喜んでもらえた(と思う)。
もう1名にも作業を行ったのだが、リブートする際に「error code 9」を吐いてストップしてしまう。
色々試したところ、システムのエラーチェックを行うことで問題を回避できた。
1 マイコンピュータからエラーの出ているドライブを選択し、右クリック
3 「ツール」タブを選択
4 「エラーチェック」の項目にある「チェックする」をクリック
5 オプション2か所にチェックを入れて「開始」