はてなキーワード: utf-8とは
“世の中の人が思っている以上に Google は理由を書いたうえでリジェクトしてきます。読んでないほうが悪いと言ってもいい。”
追記。
<script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>【コオロギ研究所閉店のお知らせとお詫び】
いつもコオロギ研究所をご利用いただき誠にありがとうございます。
2024年1月25日をもちましてコオロギ研究所公式オンラインショップを閉店することになりました。
開店以来、長い間皆様の応援のおかげでコオロギ研究所を続けることがでしました。… pic.twitter.com/V4bkP2J36i— コオロギ研究所🦗 (@korogi_lab) January 17, 2024
これ思い出したhttps://note.com/ao8l22/n/n382fcb80113b インターネットの悪いところ..<script src="https://b.st-hatena.com/js/comment-widget.js" charset="utf-8" async></script>red_kawa5373 id:kou-qana 『「自分の子供に生まれてきてしまう人間」の気持ちを考ない人達のこと』という言い方は、「相手のことを考えない」プラス「自分の子供からすかれないような人」という意味を含んでおり、かなり攻撃的だよ。2024/01/05 00:10
<script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>これは、狙われるほど魅力がなかったからという事を言いたいのか?笑
まあ、こういうパーティーといいつつ、そういうパーティーではなかったって事でしょう https://t.co/MgjBvzhZ5z— K (@K12355177K) December 30, 2023
こんます~
2023年も残すところわずかとなりましたが、皆様方におかれましてはいかがお過ごしでしょうか。
一年間の振り返りなどはされましたでしょうか。
2423件の日記を綴っており、
頂いた総ブクマ数は1893、総トラバ数は1060となりました。
本年も大変お世話になりました。
最期に、ポンコツの私がChatGPTの手となり足となり作成した増田集計コードを掲載します。
各日記のURL、タイトル、投稿日時、文字数、被ブクマ数、被トラバ数を取得しCSVファイルに出力するものです。
お暇な方はお使いください。
それではよいお年をお迎えください。
import requests from bs4 import BeautifulSoup import time import csv import os import re # ログインURL login_url = 'https://hatelabo.jp/login' # ログイン情報 login_data = { 'key': 'あなたのユーザ名またはメールアドレス', 'password': 'あなたのパスワード', 'mode': 'enter' } user_name = 'あなたのユーザ名' # User-Agent ヘッダー(例:Google Chrome) headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3' } # セッションを開始 session = requests.Session() # ログイン response = session.post(login_url, data=login_data, headers=headers) print('login',response.status_code) # 集計データ item = { 'url': '', # URL 'title': '', # タイトル 'datetime': '', # 投稿日時 'characters': '', # 文字数 'bookmark': '', # 被ブクマ数 'trackback': '', # 被トラバ数 } # CSVファイル名 output_file = 'masuda_output.csv' # CSVファイルが存在しない場合はヘッダーを書き込む if not os.path.exists(output_file): with open(output_file, 'w', newline='', encoding='utf-8') as file: writer = csv.DictWriter(file, fieldnames=item.keys()) writer.writeheader() # 集計 page_start = 1 page_end = 3 for i in range(page_start, page_end+1): # 待機 time.sleep(3) # 増田一覧取得 page = session.get(f'https://anond.hatelabo.jp/{user_name}/?page={i}') print(page.url) # 応答のHTMLをBeautifulSoupで解析 soup = BeautifulSoup(page.content, 'html.parser') entries = soup.find_all('div', class_='section') for entry in entries: header = entry.find('h3') timestamp = header.find('a').get('href')[1:] item['url'] = 'https://anond.hatelabo.jp/'+timestamp item['title'] = header.get_text()[:-1] item['datetime'] = f"{timestamp[0:4]}/{timestamp[4:6]}/{timestamp[6:8]} {timestamp[8:10]}:{timestamp[10:12]}" footersection_text = entry.find_all('p')[-2].get_text() item['characters'] = len(entry.find('p').get_text().strip(footersection_text)) item['trackback'] = int(re.search(r'92;((.*?)92;)', footersection_text).group(1) if re.search(r'92;((.*?)92;)', footersection_text) else '') if item['title'] == '■': item['title'] = entry.find('p').get_text().strip(footersection_text)[:35] # 待機 time.sleep(3) bookmark_page = session.get(f'https://b.hatena.ne.jp/entry/button/?url=https%3A%2F%2Fanond.hatelabo.jp%2F{timestamp}&amp;layout=basic-label-counter&amp;lang=ja') soup_b = BeautifulSoup(bookmark_page.content, 'html.parser') item['bookmark'] = int(soup_b.find('a', class_='count').get_text()) # CSVファイルに追記 with open(output_file, 'a', newline='', encoding='utf-8') as file: writer = csv.DictWriter(file, fieldnames=item.keys()) writer.writerow(item)
(追記)
わー。ごめんなさい。文字が何か所か変わっていました。
92; → \
まったくってなんだったんだ
<script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>pic.twitter.com/IkuTwmIOge— でんちゃん (@dengal6) November 16, 2023