はてなキーワード: ブラウザとは
ブラウザをmicrosoft edgeに統一しても、検索エンジンごとにセーフサーチを設定しないといけないのでGoogle、bing、yahooとかを設定してもマイナーな検索エンジン使われたらアウト
しかも子供用アカウントを作っても、なんと子供用アカウントでセーフサーチの設定をオフにできてしまう。windowsさんあのさぁ…
市販のiフィルターとか言うのは強力な代わりにGoogle画像検索すらできなくなるらしい
学校とかどう設定してるんだろう…
全体的に、線で結ばれているものが親子関係なのか包含関係なのかただ近い領域のものなのか曖昧なので意味のあるグラフというよりはキーワードを適当に散りばめて近い領域にあるものを線で結んだお気持ちマップに見える
増田を全削除するのであればPower Automation DesktopかSelenium IDEあたりでも使えば可能ですが、中にはブクマを集めた珠玉の増田やブクマは付かなくても割と気に入ってる増田もあるので全削除はしたくありませんでした。
Masuda Deleter
https://github.com/oribeolive/masuda-deleter/
Masuda DeleterはDockerコンテナに環境を作って動くのでDockerが必要です。
M1 Macで動作していますがWindowsは検証できるマシンが手元にないので動作未確認です。
インストールはGitHubのREADMEに書かれたコマンドを実行すればできると思います。
Masuda Deleterははてラボにログインして指定されたページ分の自分の増田の投稿をスクレイピングしてローカルのDBに保存します。
取得された投稿のリストがブラウザで見られるので、そこで削除するものを選んで実行すると、またログインして投稿を削除しにいきます。
ページのアクセスごとに読み込みと遠慮のために1秒から数秒sleepするので少し時間がかかります。
一旦投稿をローカルに保存するという過程があるため副作用として自分の投稿を検索できます。
これにより
が容易になります。
増田にはAPIがないので、IDとパスワードを使ってログインして、表示されている文章をスクレイピングしてくるという原始的なやり方になります。
(2回目からはcookieがある場合はcookieを復元してログイン状態になります。)
ユーザーが知らない外部サイトにクレデンシャルを渡すのは危険であり、サービス運営側としてもパスワードを平文で持ちたくないので、Webサービスとして実装せずセルフサービスとしております。
ユーザーによってローカルの.envファイルに書かれたIDとパスワードを使用する形です。
ソースをオープンしておりますので怪しいことをしていないかも確認ができるかと思います。
一応下にプログレスバーが出ますが、ページ遷移すると見られなくなります。進捗は進捗管理でも確認できます。
取得された投稿はリアルタイムで画面に反映されないのでブラウザをリロードしてください。
増田のID、タイトル、本文の省略、投稿日時、ブクマ数、トラバ数が表示されます。
「あとで消す」投稿をチェックし、「あとで消す」記事をついに消すボタンで削除を実行します。
チェックは別のページに遷移しても有効です。
こちらは実行した時点で表示されているページのみリアルタイムに画面に反映されます。
投稿の全文を見られます。タグ等は取得しないのでテキストのみになります。
投稿を個別に取得してローカルの文章とブクマ数とトラバ数を更新します。
対象の投稿のタイトルを空に、本文をスペース1文字にしにいきます。
処理の進捗(何件中何件処理済みか)を見ることと、処理を停止させることができます。
排他処理(取込と取込、特定IDの削除と同じIDの削除等)にしているので動いていなそうな処理を停止して再度処理を実行するときに使います。
停止する場合は停止ボタンを押すか、それでも停止しそうにない場合は強制停止ボタンを押してください。
「停止」は今行っている最中の処理ではなく次以降の処理を停止するという形になります。
停止ボタンを押したときに4ページ目を取得している場合は、5ページ目の取得を始める前に処理を終了することになります。
そのためプロセスそのものが止まっている場合は停止されません。
「強制停止」はプロセスをkillします。スクリプト名とプロセスIDでプロセスを検索して子プロセスも含めてkillします。
おまけとして、投稿日とブクマ数、投稿日と3ブクマ以上の投稿の件数、投稿時間(hour)ごとの1ブクマ以上の投稿の件数のグラフが見られます。
ブクマが付いた瞬間ではなく投稿日時なので、いつの時期に投稿した、何時に投稿した増田が活きが良いのかを見られる程度です。
集計データを別に持っていないので増田を削除するとグラフに使用されるデータも消えます。
私はこれで多いときには4000件程度あった増田を3000件程度に減らしました。
これを開発する前からも増え続ける増田の削除に日々勤しんでいたので総数はもっと多いはず。
まだまだ削除したいです。
たまに
Message: unknown error: net::ERR_CONNECTION_CLOSED
というSeleniumのエラーが出て処理が実行されないことがあります。再度実行してください。
フロントエンドがレガシーなのでMasuda Deleterの開発に飽きていなければもう少しモダンにリプレースしようと思っています。
使用していないDjango REST frameworkがrequirements.txtに入っているのはその名残です。
githubっていつのまに、ちょい古めのブラウザだとassetsの所がグルグル回ったまま、クリックしても開かないようになったんだ。
ちなみに、ちゃんと開けるブラウザを使ってだ、HTMLの検証できるサイトに行ってそのページのソースを貼り付けたらば、やっぱ古いブラウザと同じ結果になる。
ほんまにいらんことしよってからに!
ダウンロードするには、ターミナルでcurl -v https://api.github.com/repos/[目的の場所 公開してる人のアカウント名(owner)/プロジェクト(repo) ]/releases/assets
ってやるとずらっと表示される中に"browser_download_url" とあって、ブラウザでダウンロードできるURLが表示される。
releasesの右に/tag/が入ってるページの絞り込みはreleasesの横に入れればいいのかと思ったが、ちょっと分からなかった。
*ターミナルを使わなくてもcurl -v を省いて、"https://api.github.com/repos/"から"/releases"までをブラウザのURL欄に入れたら同じ内容が階層にまとまった状態で表示されるのに気づいた(三角をクリックしたら開く)
そしてグレーで「jsonを検索」って所にラベル名なんかを入れると絞り込んでくれる。
なんだこれ凄く便利じゃないか!
ChatGPTも全然役に立たねーしよ
QuickTimeでとれるとか嘘ついて。音が入らねーんじゃ
で、ブラウザだと、ブラウザ出力の音をマイク入力に流すアドオンがあるから、それみたいなツールねーのかって聞いたら、soxでできるとかいいやがって
OBSならできるんじゃねーかと思って入れたけど、これも動かない。
なんでこんな初歩的な情報がwebのどこにも転がってねーんだよ。OBSうとかそうとする段階まで、blackholeの情報皆無じゃねー歌詞ねぶっ殺すぞボケが死ねころすぞ春日
音声出力するプログラムのデモ映像取りたいだけでなんでこんなに手間がかかるんだよ。ヤクの毛刈りってレベルじゃねーぞ肥溜め飲み干し太郎がよ死ね。死ねよ死ね
OBSすらいらな。このドライバ?入れたてオーディオ出力先をblackholle に設定したらQuicktime player ですら音声入力先を設定して録音できる。
マジでしね。なんでこれごときの情報がどこにもねーんだよころすぞシ寧々家ボケナス共殺す!
なんでプログラムよりも画面録画するほうが時間かかるんだよぶっ殺すぞてめえ殺す殺す殺す
このページ見てどうぞ
見たら 1 月だけで 350MB も通信してた。
何かと不満はあるがこれは勘弁。 1GB の契約なのに…。
あとページ遷移した後にさっき開いたブクマページを出すなよ。せめてリンクからブクマページに遷移したものをアプリ側で開こうとしないでくれ。以前はアプリ内ブラウザで開いていたのに、改修してこれ。
ブラウザフィンガープリントっていう技術がある。匿名モードでは一発で特定可能な情報は送っていないのだが、画面サイズ、IPアドレス、GeoLocation、ブラウザのバージョン、OS、インストールしている拡張機能、とかを組み合わせるとかなり絞れてしまう。
chatGPTってのは、質問したら色々それっぽい答えをしてくれるAIです。
・適当な日本語の箇条書きから、それっぽい文章をそれっぽく作ってくれる。
最初はとにかく、最初から最後まで論文を埋めてみる作業から入るのですが、これが爆速になりました!
一回通して書くのが一番時間かかるので、これは論文の生産性上げてくれそう。
・明らかに今までよりレベルが高い単語や言い回しを教えてくれる!
・「文章を短くする」と言うのが、増田の能力を圧倒的に超えており、スッキリした文章になる。
これは、実はかなりでかい。
なぜなら、論文が受かるかどうかは、内容というよりは完成度という説がある。(ソース:松尾組の英語論文の書き方)
文章が短いということは、重複や意味的に重なることを統合してくたりするってこと。chatGPTはここが今までのAIより遥かにうまい!
・単語や文法のレベルが増田の能力を超えてるので、ググったりしないと厳しい。
DeepLって翻訳ソフトやGrammaryも使えるようなブラウザ機能使ってますので、文法ミスはそれなりに防げるのですが。
自分の能力を超えた文法や単語が出てくると、人間側のフィルターを鍛える必要があり、ググりまくってAIの意図を勉強する感じになります。
例えば、「A or B 動詞」だと、動詞の複数形か単数系かは、B依存でAは関係ない。とか、「The A and the B」ではなく、「The A and B」が普通、とか。
そういう文法を意識するのって、DeepLやGrammaryではないですが、chatGPT使うと、その辺りが確信持てない。増田の能力の問題。
DeepLでは、日本語入れてみて、それっぽい訳になるまで訂正を繰り返しますが。chatGPTは、文章に対して、4つくらい翻訳例を出させてます。
今までの、4倍の英語の文章を読んで、それをそれぞれいいところどりして文章にしますので、翻訳に時間がかかりますね。脳も4倍くらい疲れます。
当たり前ですが、論文は新しい概念や用語が出ますので、そんなの知らないchatGPTさんからは厳しい。
独自概念とか独自用語が多い文章だと、増田がDeepL使った方が早い。
chatという形式なので、こちらが持っている論文を読み込ませることができない。
なので、全体と協調した部分の書き方みたいなのが難しい。部分最適になってしまう。
そもそも、このようなAIが出てきたおかげで、選択肢が増えて、人間の能力が拡張されたのは超絶ありがたい。
その上での話ですが。
論文の効率自体は、今まで2週間かかったのが、今回も同じくらいやっぱりかかってるので、今回に限れば、そんなに効率はアップしていない。人間側の慣れで今後9日くらいになるような気もします。
論文のクオリティは明らかにこれまでより上がったように思います。まず、第一稿を仕上げるスピードが段違いに早くなったので、見直しや文法の細かいところに気を遣う時間が増えたように思います。また、chatGPT先生に教えていただく単語や文法や短いうまい言い回しをかなり学べます。また、参考文献も力を入れて書けるので、論文の内容的な厚みがこれまでよりアップしたように思います。
・chatGPTの進化に期待
そもそも、chatGPTはまだまだ進化の余地を残しています。今より良くなることは確実。
現状は、1時間の問い合わせ数が制限されたり、長い文章を出力できなくていまいち制限が厳しいです。
来年は、LatexやPDF読み込ませて論文書いてくれないかなあ。
そもそも、増田は難しい英単語や文法を使わないので、chatGPT先生の指導を受けて、かなり今回単語や文法の勉強になった、これに慣れていって実力を育む必要がある。
また、大量の英語の文章を読むため、このような読解能力を高める必要がある。DeepLのおかげで、英語の論文とかほぼ読英語では読まなくなったのですが、ここに来て、その読解力の重要性が高まってしまいましたね。
人間なので、印刷して声に出して論文を読むと、ミスを見つけやすいですね。AIが指摘できないミス(独自概念や用語に合わせた説明や文法など)を大量に発見できます。そういう人間的な能力でAIを補完するのが大事かもしれない。
定期的に迷惑メールが来るので、フィッシング詐欺に引っかからない自信はある。
まあ、ほとんどの人はそう思いながら詐欺に引っかかっている人が一定数いるのが現実だけど。
そんなバハマ……バカなと思うかもしれない(私も思っている)が、ネット上では個人情報だとかクレカ情報を入力してしまった、という体験談はちらほら見かける。
こういう書き出しだとこれから私が詐欺にあった内容を書きそうになるけど、実際はその逆で適当な情報を入力して遊んでみようとの試みである。
迷惑メールの内容を端的に説明するとAmazonを騙って「あなたではない他人が注文したので見覚えが無ければキャンセルしてください。」という感じ。
迷惑メールを見分ける方法はググれば山のようにあるので省略するが、簡単に見分けられる程度の内容だった。
不用意に迷惑メールの「注文をキャンセル」とここをクリックしてくださいと言わんばかりの部分を馬鹿正直にクリックすると本物そっくりのログインページが表示された。
面白いことにパスワードの入力部分が全角文字の入力に対応しており、とりあえず「天安門事件」と入力しておいた。
こういう詐欺は中国系が多い(偏見)ので、居酒屋でとりあえずビールを注文する感覚で天安門事件と入力するのである。(台湾や香港問題も有効と聞くがその辺りは有識者に問いたい)
当然ながら、本物のAmazonのサイトであればメアドやパスワードは全角を対応している訳がないし、適当な情報を入力したらログインできずに再入力を促されるが、偽サイトなので無事に(?)ログインできた。
「セキュリティ上の観点から本人確認のために個人情報を入力してください」と、それっぽい理由で名前や住所などの個人情報を入力させてくるが、明らかな偽サイトで入力する意味がないのは明白なので偽情報を入力する。
こういう時に環境依存文字だとか特殊なことをして相手の個人情報のデータベースを滅茶苦茶にできれば良いのだが、私にはそんな知識も技術力もないので物量作戦として大量の文字列を入力する暴挙に出た。
郵便番号のように字数が決まっているものについては入力制限があったが、住所については上限が無かったのでコピペしまくって無意味な文字を入力した。
おそらく数メガバイト分の文字を入力できたと思うが、ブラウザの方が若干だが重くなり、文字が表示されるのに時間がかかるようになってきたので、次のページへ移動した。
おそらくこれが本丸だと思うが適当な情報を入力して遊ぶので、当然のように存在しない情報を適当に打ち、一通り入力が完了して送信したら403エラー、つまりアク禁で見れなくなったのでゲームオーバー。
偽情報が原因なのか、元からエラーが出る仕様なのか分からないが、どちらにしても不用意に偽サイトにアクセスしない方が良いと思いました。(子供みたいな感想文)