はてなキーワード: google Chromeとは
ブックマークを管理するツールを入れて、2024年になってやっと整理することになった。
Windowsも11となって心機一転というわけでもないけれど、ごちゃごちゃとして趣味も仕事も一緒になってしまっているので、ここいら辺でなんとかせねばと取り掛かったところ。
はたしてHatenaBlogも生きているのかと覗いてみると、まだ生きていた。
前の記事が2013年なので10年越しに書いているわけだが、まぁ匿名ブログということもあり、内容のないことを書いているなぁと・・・
Google chromeも10年経てば色々と変わったわけだが、ちゃんと管理していなかっただけあって、使い方もおぼつかない。ブックマーク自体もフォルダ分けしているものの、乱雑さが目立つ。
ブックマークも名前順にできることを知らずに使っていたくらいなので、フォルダ管理と重複登録をなくすことをとりあえずやっておこうと思う。
MastodonやらMisskeyやらは、ActivityPubというプロトコルを通して複数のサーバーが繋がり「Fediverse」というある種の「世界」を形成している。この世界においても現実世界と同様に好まれている人物そうではない人物がおり、それは人々によって異なっている。しかし多くの人間から嫌われている人物として挙げられるのは「ぐぬ管 (GNU social JP管理人)」であろう。2chの末期ひろゆきと同程度に嫌われていると思っていただいて構わない。
尤も、Fediverseという狭い世界のいざこざであるというのは疑いの無い内容である。しかしながら彼の行動はこの狭い世界の印象を破壊するレベルで迷惑で不名誉でかつノイジーなものである。
代表的な例として、ちょうど1年ほど前に発生したmstdn.maud.ioの管理人(hota氏)とのドメインブロック問題(に限らないが)を見てもらうのが良い。
https://wiki.maud.io/ja/poem/gnusocialjp
GNU Social JP管理人に対する非難声明 (他のサーバーの管理人による非難声明)
https://www.giraffe.beer/2023/02/gnu-social-jp.html
告知: mstdn.maud.ioからのドメインブロックと対抗措置 (解決済) | GNU social JP Web
https://web.gnusocial.jp/post/2023/02/12/5284/
要するに誤解と妄想といちゃもんを同時に他人に押し付け、粘着した後に中身の薄いまとめサイトに一方的な視点でまとめ上げることを行っている(しかも新しい記事は有料)。
一応GNU Socialの名誉のために言っておくと、GNU Social(ソフトウェア)とGNU social JP(ぐぬ管の巣)は別物である。「IEそのもの」と、「IEを使っている1ユーザー」が全く別物であるのと似たような関係である。IEが素晴らしいと思っているからといって、Google Chromeはカスオタクが使っているゴミで、当然ながら利用者は情弱でキッズであると罵り、反論され彼らがIEを使わなくなったり喧嘩を吹っかけてきた人間と関わりを閉ざすと「差別である(参考: https://riq0h.jp/2023/06/26/195759/)」と大声で触れ回るのである。
こんな人間を誰が好むのであろうか。
なお、これは言論の自由の範囲の文章であり、事実を基にした個人の感想である。恐らく憲法にも反していない(ぐぬ管氏の解釈によれば国民は憲法を守る必要があるらしいため)。
能登地震で震度7を観測した場所増えたと聞いて、気象庁が公開している
震度7の地域と凡例の震度7の色が一致してないように見えるんだが、どういうこと?
あとGoogle Chromeだとこれ以上ズームすると色の表示が消えるので使い物にならない。
https://i.imgur.com/7fcp1rH.jpeg
Edgeで見ると、ズームできる。で、震度7が観測されたと思われる地域に謎の紫色の場所がある。
https://i.imgur.com/HunTbST.png
防災科研の「面的推定震度分布」だとこの紫色の地点が震度6強らしいので、
グラデーションみたいな感じで紫色に中和されてしまっているのか?
https://xview.bosai.go.jp/view/index.html?appid=41a77b3dcf3846029206b86107877780
こんます~
2023年も残すところわずかとなりましたが、皆様方におかれましてはいかがお過ごしでしょうか。
一年間の振り返りなどはされましたでしょうか。
2423件の日記を綴っており、
頂いた総ブクマ数は1893、総トラバ数は1060となりました。
本年も大変お世話になりました。
最期に、ポンコツの私がChatGPTの手となり足となり作成した増田集計コードを掲載します。
各日記のURL、タイトル、投稿日時、文字数、被ブクマ数、被トラバ数を取得しCSVファイルに出力するものです。
お暇な方はお使いください。
それではよいお年をお迎えください。
import requests from bs4 import BeautifulSoup import time import csv import os import re # ログインURL login_url = 'https://hatelabo.jp/login' # ログイン情報 login_data = { 'key': 'あなたのユーザ名またはメールアドレス', 'password': 'あなたのパスワード', 'mode': 'enter' } user_name = 'あなたのユーザ名' # User-Agent ヘッダー(例:Google Chrome) headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3' } # セッションを開始 session = requests.Session() # ログイン response = session.post(login_url, data=login_data, headers=headers) print('login',response.status_code) # 集計データ item = { 'url': '', # URL 'title': '', # タイトル 'datetime': '', # 投稿日時 'characters': '', # 文字数 'bookmark': '', # 被ブクマ数 'trackback': '', # 被トラバ数 } # CSVファイル名 output_file = 'masuda_output.csv' # CSVファイルが存在しない場合はヘッダーを書き込む if not os.path.exists(output_file): with open(output_file, 'w', newline='', encoding='utf-8') as file: writer = csv.DictWriter(file, fieldnames=item.keys()) writer.writeheader() # 集計 page_start = 1 page_end = 3 for i in range(page_start, page_end+1): # 待機 time.sleep(3) # 増田一覧取得 page = session.get(f'https://anond.hatelabo.jp/{user_name}/?page={i}') print(page.url) # 応答のHTMLをBeautifulSoupで解析 soup = BeautifulSoup(page.content, 'html.parser') entries = soup.find_all('div', class_='section') for entry in entries: header = entry.find('h3') timestamp = header.find('a').get('href')[1:] item['url'] = 'https://anond.hatelabo.jp/'+timestamp item['title'] = header.get_text()[:-1] item['datetime'] = f"{timestamp[0:4]}/{timestamp[4:6]}/{timestamp[6:8]} {timestamp[8:10]}:{timestamp[10:12]}" footersection_text = entry.find_all('p')[-2].get_text() item['characters'] = len(entry.find('p').get_text().strip(footersection_text)) item['trackback'] = int(re.search(r'92;((.*?)92;)', footersection_text).group(1) if re.search(r'92;((.*?)92;)', footersection_text) else '') if item['title'] == '■': item['title'] = entry.find('p').get_text().strip(footersection_text)[:35] # 待機 time.sleep(3) bookmark_page = session.get(f'https://b.hatena.ne.jp/entry/button/?url=https%3A%2F%2Fanond.hatelabo.jp%2F{timestamp}&layout=basic-label-counter&lang=ja') soup_b = BeautifulSoup(bookmark_page.content, 'html.parser') item['bookmark'] = int(soup_b.find('a', class_='count').get_text()) # CSVファイルに追記 with open(output_file, 'a', newline='', encoding='utf-8') as file: writer = csv.DictWriter(file, fieldnames=item.keys()) writer.writerow(item)
(追記)
わー。ごめんなさい。文字が何か所か変わっていました。
92; → \
<title>Document</title>
の下に <script src="./script.js"></script>
という行を追加する <body>
と </body>
の間にテスト文言を <h1>てすと</h1>
とでも書いておく body
の中に書いたテスト文言が左上に表示されているはず console.log("Hello, World!");
とタイプし、上書き保存する
Hello, World!
と出力されていれば成功。
これで JavaScript を実行する最小限の環境は整った。
好きなようにプログラムを書いてコンソールに出力したり画面に書き出したりしてみて。
「指示の通りにならない!」という時はどこでつまずいてるか書いて。対応策を助言できるかもしれない。
弱者男性が、ぶつかりおじさんになるという言説がある。
それは歩きスマホする女が避けないだけの被害妄想だという話もあるが。
AI美女アカウントとかならセーフかもしれないが、アウトかもしれない。
そういう鬱憤はらしは、特定された時人生壊れるし、TwitterやGoogleにはバレていて、将来AIから差別されるかもしれない。
githubのOSSを見て、その製品に文句を言うだけの場所がある。
そう、githubのissueってやつだ。
そこでは、製品のここが悪いって言いまくれる。
例えば、Google Chromeのアイコンには、ハンバーガーのアイコンがあるんだが、「一番下がこのアイコンのハンバーガーだとチーズになってる、そんなハンバーガーあり得ないだろ!」というissueとかあった。
なんなら、自作でアイコン作って、「こっちの方がいいでしょ」とプルリクしちゃえば、世界に大貢献だ!
って感じで、
なんなら、Read Meが分かりにくいとか、日本語のRead Meを英語も追記しましたとか、その程度でいい。
その程度でも、世界貢献。