「TxT」を含む日記 RSS

はてなキーワード: TxTとは

2024-11-16

学習関連でたまにBlueskyとかのほうがヤバいとか言い出す人いるけど、Blueskyとかは個々のユーザー判断を委ねてるだけでし放題とはどこにもないんだよね

しろ規約で縛るほうが選択の自由を損ねてると判断されて面倒なことになりやす

robot.txtの内容出してきたりするけど無断学習するようなやつらがそれ守る前提なのが笑える

そのぐらいあの手のやつらの言ってるやってることはちぐはぐ

2024-11-14

anond:20241114130030

#!/bin/bash
i=1
while read line
do
  /Applications/Google\ Chrome.app/Contents/MacOS/Google\ Chrome \
  --headless --disable-gpu --print-to-pdf="sample_${i}.pdf" $line
  let ++i
done < urls.txt

2024-11-04

anond:20241104184944

それは、まぁ、robot.txt で設定できるんじゃないの?

2024-10-10

anond:20241010082411

https://www.geonames.org から取れる、人口500人以上の都市名前限定すると、

Santa Maria Magdalena Cahuacan

10文字の `a` を含んで最大。

import logging
import tempfile
import zipfile

from collections import Counter

import httpx

FILE_NAME_BASE = 'cities500'
GEONAME_FIELDS = (
    'geoname_id',
    'name',
    'ascii_name',
    'alternate_names',
    'latitude',
    'longitude',
    'feature_class',
    'feature_code',
    'country_code',
    'cc2',
    'admin1_code',
    'admin2_code',
    'admin3_code',
    'admin4_code',
    'population',
    'elevation',
    'dem',
    'timezone',
    'modification_date',
)

def retrieve_cities():
    """Retrieve city names from a remote server."""
    response = httpx.get(f'https://download.geonames.org/export/dump/{FILE_NAME_BASE}.zip')
    response.raise_for_status()

    tmpdir = tempfile.TemporaryDirectory()
    with open(tmpdir.name + f'/{FILE_NAME_BASE}.zip', 'wb') as f:
        f.write(response.content)
    with zipfile.ZipFile(tmpdir.name + f'/{FILE_NAME_BASE}.zip', 'r') as z:
        z.extractall(tmpdir.name)
    with open(tmpdir.name + f'/{FILE_NAME_BASE}.txt', 'r') as f:
        for line in f:
            yield line.split('\t')


def count_characters(to_check='ascii_name', filter_func=lambda _: True):
    """Count characters in city names."""
    cities = {}
    for city_fields in retrieve_cities():
        city = dict(zip(GEONAME_FIELDS, city_fields))
        if not filter_func(city):
            continue
        counter = Counter()
        for c in city[to_check]:
            counter[c] += 1
        cities[city['geoname_id']] = {'characters': counter, 'city': city}
    return cities


def count_chars_of_city_names(cities, char=None):
    """Find the city with the most occurrences of a given character."""
    cities_by_char_count = {}
    max_count = 0
    max_count_char = None
    for city_id, data in cities.items():
        if 'characters' not in data or not data['characters']:
            logging.debug(f'No characters found for city {city_id}', data)
            continue

        count = 0
        if char and char in data['characters']:
            count = data['characters'][char]

            cities_by_char_count.setdefault(count, []).append(data)
        elif char is None:
            most_common = data['characters'].most_common(1)[0]
            char, count = most_common
            cities_by_char_count.setdefault(count, []).append(data)

        if count > max_count:
            max_count = count
            max_count_char = char
            cities_by_char_count.setdefault(count, []).append(data)
    return cities_by_char_count.get(max_count, []), max_count_char


def not_contain_invalid_chars(city):
    return (
            '(' not in city.get('ascii_name', '')
            and '/' not in city.get('ascii_name', '')
    )


def main():
    cities = count_characters(filter_func=not_contain_invalid_chars)
    for char in 'abcdefghijklmnopqrstuvwxyz':
        cities_counted, char = count_chars_of_city_names(cities, char)
        max_count = cities_counted[0]['characters'][char]
        print(f'The character "{char}" appears the most ({max_count} times) in the following cities:')
        for city in cities_counted:
            print("\t", city['city']['ascii_name'])

if __name__ == "__main__":
    main()

2024-09-17

世間には自分にとって必要のないニュース話題が多いのは周知の事実だが、

ニュースサイトが自分用にしてくれるわけでもないので(そういうサービスもあるそうだが)

pythonとChatGPTで作った。

BeautifulSoupでスクレイピングして、

外部txtファイルNGワードを書いておいて、

NGワードに引っかかったトピックを削除してHTMLで書き出し。

2024-08-18

anond:20240817170832

サブスクがいつの間にか増えていたので、断捨離のための整理をかねて...

Google Drive 月額250円 (年額3,000円)

100GBで月額250円

Google Photo で半分ほどの容量を占めているが残りは、GmailDrive10GBずつ程度。

iCloud 月額130円 (年額1,560円)

50GBで月額130円

iPhoneバックアップが主な理由写真シンクはしていない。

Google Cloud 従量制 月額170円くらい (年額2,000円くらい)

無償分がはみ出るリソースで、円安前は110円で済んでいたんだけどな。

AWS 従量制 月額290円くらい (年額3,500円くらい)

ほぼ Route 53 のゾーン利用料。

ChatGPT Plus 月額20ドル (年額240ドル)

20ドルかぁー、20ドルなぁーって思いながら使っている。Notionはちょっとダメだったので、これはまあ、イイかと思っている。

Atokパスポート 月額330円 (年額3,960円)

大学時代からAtokを使い続けているので惰性のようなものだが、買い切りからサブスクに切り替えてからもう何年経ったのだろうか?

Youtubeプレミアムファミリー 月額2,280円 (年額27,360円)

家族ネット広告に曝されることでネトウヨ化したり、エセ科学を真に受けたりするのを避けるには、しょーががない支出ととらえている。

有料で有益コンテンツを得るためというよりは、害になるコンテンツ避けの為にお金を払っているという感覚がある。

ニコニコチャンネル 月額660円 (年額7,920円)

国際政治チャンネル放置したままにしている...、まぁ、お布施みたいなものだが。

megalodon.jp 月額315円 (年額3,780円)

非公開魚拓を保存出来るのと、robot.txt拒否しているもの収集も出来るが、面倒なので外に置いておくという使い方かな?

断捨離の第1候補だろう。

1Password 3年版ファミリー 5人用 12,500円

今年で契約が切れるので更新必要になる。どーしよっかなぁー、1Password継続するか、Dashlaneに戻すか悩むなぁー。

Dashlane Premium 年額39.99ドル

プライベート(家庭)ではない、仕事用のアカウントパスワードマネージャーとして。

そして、HotSpot Shield VPNが付いている。

Flightradar24ゴールド 年額2,700円

世界情勢が物騒になってしまって、空の状況や要人の動きなどをウォッチするに便利なのでついつい契約してしまう。

マネーフォワード 年額5,300円

銀行口座連携せずクレジットカード電子マネー使用履歴管理している。

支出の記録はバラバラになってしまうので、マネーフォワードでまとめている。

YAMAP 年額5,700円

ココヘリか、YAMAPか悩む所だが、"登山"にはほとんど行かないので行動履歴を重視してYAMAPに課金している。

最近はヒザが気になりだして、山歩きをしていない。

モンベル会員 年額1,500円

少額でも送料が無料になるのだが、欲しいものは一通り揃ったので買うものは無いから次回更新は無しかな。

JAF会員 年額4,000円

クルマに乗らないしなぁー、遭うかどうかわからんトラブルに備えて4,000円払うのはムダかなのぉー。

自分が遭いそうなトラブルについては、既に車載しているしなぁー、でもレッカー代って高いしなぁー。自動車保険付帯に変えようかなぁー。

Wall Street Journal 月額297円 (年額3,564円)

無償アカウント登録だけしておくと値下げする時期にお知らせがあるので、セールスしているタイミング有償契約をする。

以降は、自動更新にしておかなければ更新時に値下げオファーが届くので、セール価格更新する。

朝日新聞デジタル 月額980円 (年額11,760円)

朝日新聞は購読料の選択肢複数あって、読者としては良心的な方だと思う。読売産経毎日はちょと高くて手を出しづらい。

(<追記:2024/08/19 15:31>ブコメに教えてもらった。毎日新聞スタンダードなら年払いだと9,240円(770円/月)で本紙ウェブ版とWSJ日本版を読めるそうだ</追記>)

エモ記事に関しても、あれは「新聞」というよりは、「朝日新聞」という読み物を求めている読者に向けたコンテンツなのだろうなと思う。

そういう意味で、朝日新聞ポッドキャストも含めて「朝日新聞」というコンテンツを売り物にしようと舵を切ったのだろう。

New York Times 年額25ドル

昨年はサブスクで年額28ドルくらいだったような気がする、更新時期のタイミング自分自分に購読ギフト25ドルを贈って切り替えた。

Bloomberg 年額129ドル

セールタイミング129ドル、通常で250ドルなので、セール時期に更新したいところだ。

Foreign Affairs 年額39.95ドル

左右問わない論説だが基本はアトランティック主義である。そのスタンダードウォッチする用。

Business Insiderジャパン 年額6,600円

Business Insiderの方が質・量ともに良い。"ジャパン"は解約して更新はしない。

New Yorker 年額49.44ドル

時事ネタとともに、文芸

Atlantic 年額109.99ドル

党派性が強いわけではないがリベラル、アトランティック主義のど真ん中を。

Nikkei Asia 年額119ドル

日経新聞より安いし、アジアニュースであればこちらの方が拾いやすい。

文藝春秋 電子版 年額5,400円

動画コンテンツの為なのだが、まぁ、1年で飽きるかなぁ。

Washington Post 年額20ドル

初年はセール時に年額29ドルだったが、更新時のセールオファーを使って次年は年額20ドルになった。

South China Morning Post 年額96ドル (2024/08/19 11:06追記)

中国東南アジアニュースウォッチする用と思って購読したが、CNAの方が良いかなと思っている。

毎日新聞 年額9,240円 (2024/09/02 追記)

上記の「朝日新聞」のところにある毎日新聞Wall Street Jornal も付帯するため。

https://mainichi.jp/info/wsj/ にあるように日本版に限らずWSJ本紙が購読出来る。

The Times 月額1£ (年額(約)2,400円) (2024/09/02追記)

初年は月額1ポンド(約200円)。

特に理由無くサブスクを始めたが、月単位なので、イマイチだったら解約する。

止めたもの

追記: 2024/08/19 10:25

ドル円 155円換算で、年額223,487円 (18,624円/月)

services ドル
Google Drive ¥3,000
iCloud ¥1,560
Google Cloud ¥2,000
AWS ¥3,500
ChatGPT Plus $240.00 ¥37,200
Atokパスポート ¥3,960
Youtubeプレミアムファミリー ¥27,360
ニコニコチャンネル ¥7,920
megalodon.jp ¥3,780
1Password 3年版ファミリー 5人用 ¥4,166
Dashlane Premium $39.99 ¥6,198
Flightradar24ゴールド ¥2,700
マネーフォワード ¥5,300
YAMAP ¥5,700
モンベル会員 ¥1,500
JAF会員 ¥4,000
Wall Street Journal¥3,564
朝日新聞デジタル ¥11,760
New York Times $25.00 ¥3,875
Bloomberg $129.00 ¥19,995
Foreign Affairs $39.95 ¥6,192
Business Insiderジャパン ¥6,600
New Yorker $49.44 ¥7,663
Atlantic $109.99 ¥17,048
Nikkei Asia $119.00 ¥18,445
文藝春秋 電子 ¥5,400
Washington Post $20.00 ¥3,100
South China Morning Post $96.00 ¥14,880
毎日新聞 ¥9,240
The Times £12 ¥2,364
¥246,407
¥20,534/月額

こうして並べてみると ChatGPT Plus が高い。

今はまだ、長い文章の要約をさせたり、理解が難しい話を読む時に対話的に質問したりして容易に概略化するのに使っている程度で、あんまり創造的に使いこなせていない。

からゲームはやらないし、あとは10年くらい前からアニメアイドルなども追わなくなってしまったので、この程度をコンテンツに費やすのは苦とは感じないです。

2024-08-02

import os

import os

# ファイルパス指定

file_path = 'year_count.txt'

# ファイル存在するか確認し、存在しない場合は初期値を設定

if not os.path.exists(file_path):

with open(file_path, 'w') as file:

file.write('1') # 最初の年数を1に設定

# 現在の年数を読み込み

with open(file_path, 'r') as file:

year_count = int(file.read())

# メッセージを表示

print(f"{year_count}年間で最も暑い夏")

# 年数を+1してファイルに保存

with open(file_path, 'w') as file:

file.write(str(year_count + 1))

インデントつけれね

2024-07-31

りどみ.txt                               .exe

2024-06-13

anond:20240612094401

タイムテーブルはSRTからスクリプトtxtから引用して新しいSRTファイルを生成してダウンロードリンク貼る」

これだったらエクセルでもできる気がするけどな

なんでchatgptでやろうと思ったん?

anond:20240612094401

タイムテーブルはSRTからスクリプトtxtから引用して新しいSRTファイルを生成してダウンロードリンク貼る」のうちSRTの時刻とスクリプトマッチングだけChatGPTにやらせて、他は通常のプログラムで実行すればいいんじゃね?

プログラムはChatGPTに生成させれば良い。

基本的な考え方として、確定的な処理はChatGPTよりも通常のプログラムやらせるべき。

あとプログラムの中で必要な箇所と必要データだけで都度ChatGPTを呼び出して指示する方が精度高くなる。

2024-06-12

課金してchatgpt4o使ってるけどこれ使い手がIT素人なら時間泥棒になるぞ

主に英→日の翻訳で頼ってるんだけど小学生くらい手間がかかる。放置できない。

こちらの指示がなくても止まらずに連続投稿し続けて」という指示が通じない。

油断していると、途中から存在しない英文捏造して和訳しだす。こちらが気づいてストップかけない限り延々と捏造翻訳を続けている。

捏造をしないよう指示してもダメだった。


あと動画字幕付けようとしてもダメだった。


「①ところどころ単語を省略したり変更したりしていて、音声に忠実でないところがちょいちょいあるSRT

②実際の音声に忠実だけどタイムテーブル情報がないtxt形式スクリプト

という2つのファイル提示して、

タイムテーブルはSRTからスクリプトtxtから引用して新しいSRTファイルを生成してダウンロードリンク貼る」

ってのやりたかったんだけど、マジで全くできなかった。

個人的には

「できました!!!今度こそ上手くいきました!!!

信用してダウンロードしたファイル開くと今までと全く変わってないゴミであること、

ダウンロードする前に成果物の冒頭を見せるよう指示し、それを見ると修正がきちんとされていたので今度こそ安心してダウンロードして展開すると中身は前のゴミそっくりそのまま変わらず。

というのが一番しんどかった。まともに信用してああでもないこうでもないと理解してもらうよう格闘していると平気で6時間くらい無駄にする。



あと動画アップロードしておまかせで英語字幕付けてからファイルを寄越してもらうとかも全く無理だった。

まず自動英語字幕付けるとか無理だった。

それ以前に字幕文字起こしすら無理だった。

2024-04-26

anond:20240426155347

氷河期の「ゴミおじ」の証明2chだった頃の専ブラ書き込み.txt提出で審査とか、Twitterアカウント過去の呟きから国が救わなければどうしようもないゴミおじなのか、ゴミ度測定をきっちりやってほしいよね

anond:20240426121548

拡張子については、例えば Excel拡張子が変わったとき一括対応できる、とか?

あとは普通に".txt" で取り扱ってるファイルはどれだ、って時にその定数の参照箇所を見ればもれなく分かるとか、

取り扱うファイル種別を段階的に変えようってときも、どのファイルは変え終わっててどのファイルはまだ、とかも同じように分かる

あとはあれだ、どのスコープにおける分類なんだって話を明確にする事も出来るだろうな。

const EXT_TEXT = ".txt";

const LOG_FILE_EXT = EXT_TXT;

とか。

パラメータについては、複数選択肢から選ぶ奴は enumしろよ、とは思うが、

enum の前段として内部的な数値表現統一する意味はある

文字コードも大体同じような話か。

まぁ基本的には、拡張子にせよ文字コードにせよ、

ここに定義したもの以外は登場しないよ、という保証をする事は出来るわな。

"UTF-8"を使っている事は Grep かければわかるが、"UTF-8"以外使ってません、の方はそうはいかないし

anond:20240426121548

何年か前に事故った、どっかの地方自治体システムは、

.txt と .TXT挙動を変えていた話しがあったやん?

プログラム全体で、TxtFileExt が一カ所でしか使われてないなら、変数にする必要はほぼないけど、

2か所、3カ所になったら、.txt を .TXT に変えるだけでもミスする人でてくる。

.txt を .debug.txt とか .masuda.txt に気分次第で変える時も楽やん


const 〇〇ParamIntMax = 25;

プログラム全体で、一カ所しか使われてなければ変更ミスは生じないけど、

何カ所にも別れたら、変更時に見落とすやん。

これ何の意味があるのか教えてほしい

いろんなアプリケーションメンテ(バグ取りとか細かい機能追加とか)を何度か経験してきた。

主にテキストファイルとかCSVファイルとかExcelファイルとかを入出力するものばかりだったんだが、その大半がファイル拡張子グローバル変数化していた。

こんな感じ

const TxtFileExt = ".txt";
const CsvFileExt = ".csv";
const ExelFileExt = ".xlsx";

なので、読み書きするファイル名の指定時は、

outFileName = 〇〇 + ×× + "ABCDEFG" + TxtFileExt;

みたいな指定をしなきゃならない。

これ何の意味があるのかよく分からんのだけど、誰かわかる?

あと、プログラム言語標準的メソッドのあらゆる引数も全部変数定義されてて、そのまま渡すのは禁止、みたいな規約になってる。

たとえば引数が三種類(truefalse(未指定時のデフォルト値)、任意の数値(ただし当該プログラムでは0、10、25以外指定不可))しかないやつはこんな感じ。

const 〇〇ParamTrue = true;
const 〇〇ParamFalse = false;
const 〇〇ParamIntMin = 0;
const 〇〇ParamIntMid = 10;
const 〇〇ParamIntMax = 25;

文字コードなんかもこんな感じで定義されてる。

const charCodeSJIS = "Shift_JIS";
const charCodeUtf8 = "UTF-8";

以前関わった改修内容に「××の処理は開始時と終了時にそれぞれUTF-8(BOMなし)形式ログを出力する」みたいなのがあって、普通に文字コード指定する部分に「UTF-8」で直に書いたら、規約に従ってないからとコードレビューで指摘されて差し戻されたんだけど、そもそもこういう規約って何の意味があるの?

2024-04-04

英語学習用に中学レベル英語力で読める英文が大量にほしいんだがなんかない?

紙の書籍とかじゃなくてコピーすればtxtに落とせる奴がいい

英検3級の長文問題レベルくらいがちょうどいいか

なんかないか

2024-03-21

複合機使ってる人は要注意:PJLの悪用による攻撃

複合機(MFP、いわゆるコピー機)では、IPAの「デジタル複合機セキュリティに関する調査報告書」にて、「PJLコマンド悪用した攻撃ディレクトリトラバサル)」の具体例が示されている。 手順としては極めて簡素もので、PJLコマンドファイル名「passwd.txt」を探し、これをダウンロードするというものである対策としては、このような印刷以外の機能についてはプリンター複合機がPJLのどの命令対応しているかといった情報は探しても見つかりにくい為、複合機に対してジョブデータを投入できるホスト特定プリントスプールサーバスキャンファクスゲートウェイサーバなどに限定する方法が示されているにすぎないが、インターネットから誰もがアクセス可能状態にしてしまっている複合機があり、2010年調査ではこのような複合機位置マッピングした結果、日本台湾アメリカヨーロッパなどで国土の全域に渡って設置されていたので、使用者根本的なセキュリティーに対する認識の甘さにも原因がある。 また、関連してPostScript攻撃に利用可能であり、開発者は注意が必要とされている。 

https://www.weblio.jp/content/PJL%E3%81%AE%E6%82%AA%E7%94%A8%E3%81%AB%E3%82%88%E3%82%8B%E6%94%BB%E6%92%83 

2024-03-08

バズ狙いのインフルエンサー

2024年亡くなった有名人】.txtを開いて最後の行に鳥山明を追加して全文コピーしてTwitterペーストして取ってつけたように「今年どうなってるの…😭」みたいな一言コメント打ち込んでいそいそとツイートする様子を想像した時に発生する良くないエネルギーで金曜午後を乗り切る

2024-03-02

絵師さんは何もおかしなことを言っていない

もう分断を煽るのはやめませんか

現在混乱を招いている要因は、おそらく以下の二つ

   

1. 著作権法第 30 条の 4 ただし書き解釈

2. それぞれがAIを異なる意味で使っている 

 

 

著作権法第30条 4 ただし書きの解釈

AI利用に向けて改正されたとされる著作権法30条の4は AIならなんでも許されるというわけではない。以下のように条件がついている。

  

著作物は,次に掲げる場合その他の当該著作物表現された思想又は感情を自ら享受し又は他人享受させることを目的としない場合には,その必要と認められる限度において,いずれの方法によるかを問わず,利用することができる。ただし,当該著作物の種類及び用途並びに当該利用の態様に照らし著作権者利益を不当に害することとなる場合は,この限りでない。

 

 

この辺りの解釈について紛糾している様子。

同30条の 4 は平成30年当時、事業者研究者によるAI利用を想定していた。現在では一般市民AIが広く普及し状況が変わってきたこから、同条の適応範囲について再整理を図るという趣旨で公開されたのがAI著作権に関する考え方について(素案)」

そして素案に対するパブリックコメント募集した、というのが現在の流れ。

 

 

  

それぞれがAIを異なる意味で使っている

 

 

 

それぞれは別におかしなことは言っていないと思う

 

 

反反AIネット上にある全ての絵をクロールしているんだよ!お前の絵だけ除けるか!」

 

たぶん、CLIPのこと。テキスト画像翻訳を行う。犬の画像を見て「犬」識別することができる。

ネット上のあらゆる画像テキスト学習することで作られた。OpenAIによって公開。画像生成だけではなくいろんなところに使われている。

  

  

  

PixivAI学習禁止です」

たぶん、画像生成器(拡散モデル)のこと。

画像生成AIテキストエンコーダ(CLIP)と画像生成器の組み合わせでできている。stable diffusion等は拡散モデルを使っている。

   

拡散モデルこんなかんじ

1. イラストを用意する

2. イラストノイズを振って汚す

3. 汚れたイラストから元のイラストを予想させる

 

学習を繰り返しノイズを増やしていくと最後ただのノイズから画像を出力する 連想ゲーム絵師誕生する。連想ゲーム絵師連想しかできないので自分が描いたものが何かわからない。犬を描いてといっても車を描いてくる。なので CLIPが誘導したりダメ出ししたりする。

 

拡散モデル学習に使われるイラスト

どこかのイラストサイトデータベースを使っているはず。「著作権的に安全な〜」みたいな触れ込みのやつはどこかのデータベースを購入して使っているんだと思う。

Pixivの主張は別におかしくない。このあたりはAI著作権に関する考え方について(素案)p7」(エ)において解説されている。"robot.txt"への記述によりAI学習を行うクローラーアクセス制限しているにも関わらず、勝手学習に使うことは「データベース著作物潜在的販路を阻害する行為」として著作権違反になる(Pixivが将来的に本当に販売するかどうかは置いておく)

 

 

絵師AI学習禁止です」 

追加学習(LoRA)のこと。

既存モデル数枚のイラストを追加学習させることで絵柄を模倣ファインチューニング)する。

特定絵師さんのイラスト勝手に使う者がいるようでトラブルになっている。

 

絵柄に著作権はないのでは?

絵柄に著作権はない。学習の際に行われる複製が著作権侵害にあたるかどうかが争点になっている。

 

著作権法30条の4 より

  

この辺りは「AI著作権に関する考え方について(素案)」及びパブコメの返答に現状の解釈が示されているので興味のある方はどうぞ。

(p6. 特定クリエイター著作物のみを用いてファインチューニングを行う場合〜を参照)

※ここははっきりとは断定していないので自分で読んだ方が良いと思う。

  

(私の読解:)

程度問題ぽい。よくある画風なら問題にならないけれどはっきりと特定絵師さんとわかる感じだとダメそうですね

(私の読解終わり)

絵師さんのプロフィールを叩いている人は意味わからん

別にプロフィールなんて「トイレから出たら手を洗ってください」でも「フォローする際には五体投地してください」でも好きに書いてよいだろう。

それが法律に記されているかどうかは関係ない。ただのお願いだ。

AI学習禁止」と書くなと騒いでいる人は何を考えているのかよくわからん

  

AI著作権に関する考え方について(素案)」にも再三出てくるがAI学習技術的に回避することは禁止していない。30条の4は権利制限であって、イラスト差し出せという強制ではない。

分断煽りうんざり

パブリックコメント

 

見ればわかります個人よりも一般企業による意見が多く、返答とあわせてとても読み応えのあるものです。

このファイルを読んで個人の頭の悪そうな意見だけ抜粋してくるのは非常に違和感があります

 

技術創作への興味を失い、ただ相手サイドの頭の悪そうなやつをみつけて叩く人たちとは距離を置きたいところです。

2024-01-02

anond:20240102163325

自作したといっても100行くらいしかいか陳腐な代物。

Electronにmonao editorをつなげてごにょごにょするだけで作れる。

1つのtxtファイルエクセルのシートのように分割して表示できる機能を加えたのだ。

ただし、作るのに100時間くらいかかった

2023-12-20

ディレクトリけが好きなひとたち

https://zenn.dev/adwd/articles/5d4a89262f4fc5

クリーンアーキテクチャ信奉者で厄介なのが「最初目的別にディレクトリを切りましょう」勢と重なっていることだと思う

下のようなほとんど空っぽのツリーを作って悦に入る奴は本当に害悪

探すの面倒だし、コンポーネントの関連をファイル構造から把握できない。特定画面でしか使わないものは一つのディレクトリに入れときゃいいんだよ..

A
└── B
    ├── C
    │   └── D
    │       └── E
    │           └── abc.txt
    └── X
        └── Y
            └── Z
                └── xyz.txt

2023-11-24

今、趣味プログラム書いてて、その過程で cat texts.txt | sort | uniq | grep -v '[0-9]' > texts_fix.txt とかやってるんだけど、これがまた遅い

1200万行ぐらいのファイルを使ってるんだが、何かもっと効率的なやり方はないもの

 

追記:

考えてくれた人ありがとう

結局、解決策としては--parallelと--buffer-sizeの数を増やした。

2023-11-04

anond:20231104205056

Google documentはプレーンテキストではない

プレーンテキストは、メモ帳で書ける程度の、何の装飾もないtxtファイルのこと

その何の装飾もないtxtファイルでも、形式的記法というものをつけることはできる

その記法の一つがマークダウン

何の装飾もないtxtファイルの中で記法を使って書いて、何らかのシステム送信してHTMLに変換することができる

Google documentは、例えば太字にすれば装飾された状態で表示されるが、プレーンテキストでのマークダウンは太字を表すテキストを使って**字**のように書くことができる。(マークダウンはシステム送信するまではHTMLになっていない。)

2023-09-25

ディレクトリ構造を変更したら Susierar が読み込めなくなった axrar.spi

結論

移動した7-zipへのパスレジトリで修正する

 

インストールした7-zipをアンインスト&再インストールせずそのまま手動で移動させたことで、dllファイルが読み込みなくなっていた模様。

レジストリ HKCR\Software\7-zip\Path (文字列)に設定されたフォルダ

レジストリ HKLM\Software\7-zip\Path (文字列)に設定されたフォルダ

修正した結果、動作するように。

これは、

Leeyesで一部のrarが開けないことへの対処

https://ameblo.jp/eruna-captor/entry-12384271374.html

Susieの「ax7z.spi」側ではなく、

これが使う、

7z.dll

が、新しい必要があることがわかりました。

axrar.spiあきらめてax7z_s.spiを使おうとしてax7z_s.txt解説

 

2.動作環境

ax7z_s.spi 単独では動作しません。他に 7-zip 4.57 以降に含まれ7z.dll

以下のいずれかの場所必要です。

7-zip 4.62, 4.65, 9.20, 9.22 の 7z.dll でも動作しているようです。

・ax7z_s.spi と同じフォルダ

レジストリ HKCR\Software\7-zip\Path (文字列)に設定されたフォルダ

レジストリ HKLM\Software\7-zip\Path (文字列)に設定されたフォルダ

7-zipインストーラによって上記レジストリ値が設定されるので、

インストーラでインストールされた場合は、他に何もする必要はありません。

 

から推測しました。

rarを読み込まなくなったソフトのPluginフォルダにはax7z_s.spiのために7z.dllを設置していたのですが、axrar.spiとは一階層ずれていたのでこれも読めず、レジストリ先も見つからない、という状態だったかもしれませn。

axrarのreadme.txtには7z.dll依存するなど動作条件が記載されているわけでもないので憶測ですが、おそらくそういうことでしょう。rarを扱える(7z.dllが使える)環境でaxrarを使うはずなので明記するまでもないということかもしれません。

 

https://w.atwiki.jp/comicview/

ax7z.spi for 7-zip 4.57+ s (s_y4b5 15/01/08) ※ZIP, RAR, LZH, 7z等。要7z.dll。Hamana非対応

ax7z.spi for 7-zip 4.57+ (y3b6 15/01/08) ※ZIP, RAR, LZH, 7z等。要7z.dll

RAR extract plug-in axrarRAR4

axrarには要7z.dll注釈がない

 

Program Filesを移動するときは手抜きをせずちゃんアンインストールと再インストールをしよう!

ログイン ユーザー登録
ようこそ ゲスト さん