はてなキーワード: カレントとは
アクセル・ワールド8巻がとても面白かったのですが、未解決の伏線が多すぎてよくわからなくなってきたのでまとめてみました。
同じ作者さんのソードアート・オンラインも含めて思い切りネタバレしてますので、未読の方は注意です。また、多分に私の推測を含んでいます。
4巻で「フルダイブを実現したヘッドギア型VRマシンが開発されたのは2022年の5月」という記述があるが、これはソードアート・オンラインの世界でナーブギアが開発された時期と完全に一致する。ということで、作者がこの二作品に何らかの関係性を持たせようとしているのは確かだと言える。
あくまでも別の作品なので、ソードアート・オンラインの方のネタバレになってしまうようなことは書かれないと思うが、今後も分かる人にはわかる、というレベルの繋がりは出てくるかもしれない。
水深1100メートル付近に長さ35キロ以上、厚さ200メートル、幅2キロというスケールである。全部をメートルに直して掛け算すると14,000,000,000立方メートルとなる。全部が水だったとすると140万トンである。もちろん、これはメキシコ湾全体を調査した結果ではなく、油井から南西方向に向かって調査した結果である。他の方角に向けては、調査していないのだ。メキシコ湾の海流は、南東から入り込んで東に曲がって抜けるのがメインで、湾内の海流はこの流れの影響を受ける。油井のあるあたりではループカレントと呼ばれる細い海流の先端部分が東と西に別れる。南西方向への調査は、どちらかと言えば湾の奥へと入り込んでいく流れに沿った調査であり、東方向への調査は、行われていないのであった。
今回の海底油田からの流出に、BPは、原油の比重を重たくする中和剤(Corexit-9500フォーミュラ)を大量に散布した。このため、海面に浮いてくる分は極端に少なくなり、マスコミは絵にならないという事で、あまり激しいバッシングにならなかった。しかし、海面に浮いてくれば、軽い成分は太陽であぶられて蒸発し、重い成分は海岸に漂着して、砂の中にいるバクテリアによって徐々に分解される。今回、比重を重たくして海中に沈めた事から、分解されるスピードは極端に遅く、また、分散によって汚染水域が広がり続けることになる。バクテリアは分解できるが、生物にとっては有害有毒であり、それが、海水中に漂い続けるのである。メキシコ湾には大西洋マグロの産卵地があり、ツナ缶業者の乱獲によって減少しているマグロは、今回の汚染によって、向こう数年間は絶滅状態となるであろう。この分散は、大西洋全域へと広がることになる。汚染成分が大西洋を横断して北大西洋のタラ漁に影響を与えるのは、おそらく冬となるのであった。
「国境越えたのは30秒」、米記者の姉が拘束中の様子を語る
http://www.afpbb.com/article/politics/2628809/4428925
【8月8日 AFP】3月に北朝鮮で拘束され今週釈放された米カレントTV(Current TV)のユナ・リー(Euna Lee)記者とローラ・リン(Laura Ling)記者が帰国した後初めて、ローラさんの姉でテレビタレントのリサ・リン(Lisa Ling)さん(36)が6日、米テレビCNNのインタビューに応じた。4か月におよんだ拘束中の一端が初めて明らかになった。
米国を出発した時、2人に北朝鮮領内に入る意思は全くなく、国境を越えたのもわずか30秒ほどだったという。
ローラさんとユナさんは別々に拘束され、ローラさんは小さな独房に入れられた。昼夜を問わず2人の看守に監視されたが、看守らはローラさんを「人道的に」扱い、友好的ですらあったという。「お互い言葉は通じなくても、どういうわけか不思議な親しみが沸いてきたようだ」(リサさん)
食事は米、少量の野菜、魚のフライなど3食が提供され、魚のフライを食べた後は体調を崩したという。運動のためローラさんは独房の中を1日に数時間歩いたが、お湯がなかったため入浴は困難だった。
また、ローラさんが「起きたことをありのまま明らかにしたい」として今回の事件について手記を書く予定であることも明らかにした。(c)AFP
射殺されなかった事を神に感謝せんとな。
4Uって知ってるかい?
”世界中の美女画像を皆でシェアするソーシャルイメージブックマークサービス”
とのことさ。それはほんともう美しい画像が満載で毎日見てても飽きないわけさ。
そこでローカルに画像を保存しようと思い、ちょっくら実装してみた。
#!/usr/local/bin/perl -w use strict; use warnings; use Web::Scraper; use LWP::UserAgent; use Perl6::Say; use MIME::Type; use URI; use Data::Dumper; sub p { print Data::Dumper::Dumper(@_) }; my $page = shift || 1000; unless ( $page =~ /^\d+$/ ) { die 'perl 4u.pl [page as int]'; } for my $i (1..$page) { my $url = sprintf 'http://4u.straightline.jp/?page=%s' , $i; say "request url>".$url; my $tmp = scraper { process 'ul.entry-list>li>div.entry-body>div.entry-photo>a', 'link[]' => '@href'; process 'ul.entry-list>li>div.entry-footer>div.wrapper-entry-description>div.entry-description>p.entry-img-src', 'img[]' => 'TEXT'; result 'link','img'; }->scrape( URI->new($url) ); my $links = $tmp->{link}; my $imgs = $tmp->{img}; if ( ref $links ne 'ARRAY' ) { say "end program."; exit; } for my $link (@$links) { $link =~ m{/([^/]+)$}; my $sesid = $1; sleep 1; my $image_url = shift @$imgs || next; $image_url = 'http://'.$image_url; say "get image url >".$image_url; my $ua = LWP::UserAgent->new; my $req = HTTP::Request->new(GET => $image_url); my $res = $ua->request($req); my $content = $res->content; my $content_type = $res->headers->header('content-type'); my $ext = MIME::Type->new( type => $content_type )->subType || 'bin'; my $write_path = './img/'.$sesid.'.'.$ext; if ( -f $write_path ) { say "file exsits end program >".$write_path; exit; } open my $FH, '>', $write_path; binmode $FH; print $FH $content; close $FH; say "write image >".$write_path; } }
貴様、うるせーんだよ。
今回俺としてはWeb::Scraper使いたかったので自力実装してみますた。
使い方を試しながらだったので製作時間2時間くらいかかたお。次からはもっと短縮できそうだ。
まーがーっと書いた後に整理してないからコード自体はかなり汚ねぇのでご了承を。ふへ。
とりあえず4u.plを叩くとカレントディレクトリのimgフォルダに取得した画像を次々書き込んでいく。
ちゃんと次のページにも遷移しながらどんどんがんがん書き込んでいくのさ。
で、以前取得したことのある画像にぶつかるとそこでプログラム終了。
ちゅーかなんつってもWeb::Scraperってばスゲエよな。俺のクリオアがびんびん反応するぜ。え?クオリアだって?うっせぇ野暮なこと言うなよ。