「Fine」を含む日記 RSS

はてなキーワード: Fineとは

2023-05-06

3つ目の学士を取ろうかと考えて遠回りしている

学士を2つ持っている。大学在籍は計10年。

10年くらい前、法学部卒業し「学士(法学)(Bachelor of Law)」を得た。2年間の休学を挟んだので6年かかった。

修学自体は極めて順調だったので3年次までにほぼ単位は取り終えた。就活だるいし逃げるか〜人生夏休みって今っしょ?とカジュアルに休学して遊び呆けたら2年経っていた。休学費用はタダだった。

ちなみに奨学金(学生支援機構)は休学中は支給停止されるが復学したらちゃん支給再開してくれる。

何年か前、働きながら放送大学卒業し「学士(教養)(Bachelor of Arts)」を得た。学士入学(3年次編入)したので最短2年で済むのだが4年かかった。

放送大学には社会産業コース情報コースなど現在6つのコースがあるが、すべて教養学部所属学士(教養)だ。全コース卒業すると「名誉学生」として表彰される制度がある。特典は改悪されショボい。

現在放送大学単位認定試験が会場でのリアル受験からWeb受験に切り替わったため格段に社会人に優しくなった(リアル受験可能)。コロナ情勢に左右される一時的ものではなく恒常的な変更だ。オススメ

ちなみに奨学金社会学生(科目履修生や聴講生ではない正科生のみ)になると返済猶予できる。返済総額は変わらない単なる先送りだが、手元の現金は最強だし投資してもいい。以前は社会学生を続ける限り無限猶予できるガバ制度だっだが改悪されその時点から最長10年間のみとなった。

さてlawとartsを修めたし次はscienceと行きたかったが残念なことに通信制理系大学は壊滅状態だ。

学士(IT総合学)、学士(情報マネジメント)、学士(経営情報学)みたいなエセ理系(超失礼)はいくつかある中で、ザ・理系感があるのは帝京大学理工学部情報科学科の「学士(工学)(Bachelor of Engineering)」が唯一の存在である

愛知産業大学建築学科だが造形学部所属のため学士(芸術)となる。

放送大学含め上記大学の中から理数系単位をかき集めて大学改革支援学位授与機構学位(理学)などを得る方法もあるがちょっとハードルが高いな。卒業さえすればいい帝京大学無難と言える。

ところで大学編入学する際の単位認定にはザックリ2種類ある。

個別認定過去の履修科目の中でカリキュラム上と同等の科目を個別認定。「あなた過去に"コンピュータ科学"を履修してるからうちの専門科目"情報基礎"の2単位認定するよ」出身専攻が違うと認定数も少ない。

・一括(包括)認定特定の科目でなく枠や群としての認定。「あなた大卒からうちの教養科目群で28単位認定するよ」

放送大学のような教養系の大学だと卒業要件全体で一括認定されて大卒3年次編入は62単位認定のようなスタートダッシュになる。

帝京大学のような教養科目+専門科目だと前者は一括認定されるが文系出身なら個別認定が少なく専門科目はゼロスタートのようなものだ。先は長い。自分コンピュータサイエンスの適性があるかもわからない。

というわけで逃げを打つ。資格合格による履修免除システムだ。入学前に資格を掻き集めて負担軽減する作戦

入学後の合格でも申請免除なのだ単位試験資格試験の二兎を追うより入学前の方が気楽だろう。でも履修免除すると成績表上の評価がSABCでなくN(認定)になるらしい。うーんこれは…GPA的にどうなんだ…

その資格は次の通り。2023年募集要項より。

以下の資格合格している場合は、履修が免除される科目があります

ITパスポート基本情報技術者応用情報技術者データベーススペシャリストネットワークスペシャリストドットコムマスター(アドバンス)、CGエンジニア検定(ベーシックエキスパート)、陸上無線技術士電気通信主任技術者(伝送交換)、(電気通信に関する)工事担任者

試験日程の自由が利くCBT受験基本情報工事担任者(2級アナログ通信、2級デジタル通信)に合格関係ないけど電気工事士2種に合格

電通主任4月21日申込締切を失念してしまい悔しい。難関だから科目免除できる1陸特工事担任者総合種を先に取るのがセオリーらしいから傷は浅い。ドットコムマスター、下級の陸上無線特殊技術士もCBTなので合間を見て受験したい。今気付いたけど履修免除科目がダブってると取っても意味ない資格もあるのでは?確認していなかった…

今年秋か来年春に入学したい。

先の話すぎて鬼が大爆笑だが、学士(工学)を取れたら次は慶應通信学士(哲学)かどこかの美大通信学士(芸術)にでも挑戦してみたい。

後者はBachelor of Fine Artsだから学士(教養)のBachelor of Artsと並べて収まりが良さそうくらいの理由

前者は実は帝京を考える前の本命だった。学歴コンプはあるのでいずれ慶應で上書きしたい。所詮通信だが。コロナ最盛期は単位認定試験が中止になりレポート代替となる単位ボーナスステージだったのだが、決心がつかず指咥えて眺めてるうちに試験形式に戻ってしまった。

単位試験は難関らしいし(全体的に不親切ともいう)卒論もある。実は今まで卒論を含め論文自体を書いたことがない。下手したら卒業10年かかってしまう。

それで尻込みして完全な趣味よりもまだ仕事(メーカー技術職)に関連のある学士(工学)を先に選んだというわけだ。

学士ばっか集めてないで修士に挑戦しろ自分でも思うが、そもそも勉強したいが研究したいわけではない。研究テーマとか何も考えられない。与えられたカリキュラムに沿って学問を修めた気になりたいだけだ。学位資格のような証がないと勉強にも身が入らない。自分でもその怠惰さはわかっている。

上記理由修論にもビビまくり。働きながらの修学もキツそうだ。夜勤もするシフト勤務だから夜間通学もできないので通信制頼りとなる。

修士(Master)の響きには憧れるのだが。かっこいいなあマスター

2023-05-02

AIクイズ番組を作って楽しく学ぶ

何かを学ぶにおいて、クイズ形式楽しい

単に教科書を読むだけより問いかけられたほうが脳が考えようとするし能動的に学習できる。

ならばAIクイズ番組を作ればいいのではないか

プロンプト:「ChatGPTの仕組み」の包括的理解が得られる文章を、クイズ番組の司会風に書いてください。クイズは5問ほど出題してください。それぞれの問題の後に答えと解説を発表してください。

出力:

皆さんこんにちは今日特別クイズ番組にようこそ!私たちあなたに、OpenAIが開発した驚くべき技術、ChatGPTの仕組みについての包括的理解を得るためのクイズを出題します。さあ、問題を出題していきましょう!

問題1: ChatGPTの基本となるAIアーキテクチャは何でしょうか?

答え: GPT-4

解説: ChatGPTは、OpenAIが開発したGPT-4(Generative Pre-trained Transformer 4)というアーキテクチャを基盤としていますGPT-4は、自然言語処理タスクに優れた性能を発揮することで知られています

問題2: GPT-4はどのような学習手法で訓練されていますか?

答え: 事前学習(pre-training)と事後学習fine-tuning

解説: GPT-4は、2段階の学習プロセスで訓練されています最初の段階は事前学習で、大量のテキストデータから言語モデル学習します。次の段階は事後学習で、特定タスクに適した性能を発揮するようにモデルを微調整します。

問題3: ChatGPTが生成するテキスト品質を向上させるために用いられる技術は何でしょうか?

答え: ビームサーチ(Beam Search)

解説: ビームサーチは、生成されるテキスト品質を向上させるために用いられる探索アルゴリズムです。複数候補を同時に生成し、最も尤もらしい文を選択することで、より自然で正確なテキストを生成することが可能になります

問題4: GPT-4が生成するテキストにおいて、長い文章を生成する際に問題となる要因は何でしょうか?

答え: 文脈の長さ(Context Length)

解説: GPT-4は、一度に扱える文脈の長さに制約があります。この制約により、長い文章を生成する際に、以前の文脈が失われることがあり、それが結果として文章一貫性理解度に影響を与えることがあります

問題5: ChatGPTが生成する回答が間違った情報を含む可能性がある理由は何でしょうか?

答え: 学習データに含まれる誤った情報モデルの生成性能の限界

解説: ChatGPTが間違った情報を含む回答を生成する理由は主に2つあります。まず、学習データに含まれる誤った情報が原因となることがあります学習データ不正であると、モデルもそれを学習し、間違った回答を生成することがあります。また、GPT-4は生成モデルであるため、正確な情報学習データに含まれていても、生成時に限界があり、正確性が犠牲になることがあります

以上、5問のクイズでした!皆さんはChatGPTの仕組みについての理解を深めることができましたか?今回のクイズで学んだ知識をぜひ活用して、この驚くべき技術とその可能性についてさらに学んでいってくださいね!それでは、また次回のクイズでお会いしましょう!

包括的理解が得られるかは微妙だが、結構楽しい感じになったように思う。

AI教育にどんどん生かしていくことが待ち望まれる。

2023-01-26

画像生成AI流行ってることをお前に教える2(階層マージ・LoRA編)

前回:anond:20221129215754

前回の投稿から状況がめまぐるしく変わっている。

前回紹介したAnythingv3を投稿者が削除したり関係の無い第三者Anythingv4や4.5を勝手リリースしたり…(しかマージモデルだとか)

増田も追いかけきれていないが追いかけてるぶんは自分のためにここでまとめておく。

基本モデル

NAIリークモデルAnythingv3に関しては前回を参照。

インスタモデル

Instagram投稿されている画像学習させたモデル総称

実在人物画像学習しているため人物の体型をより正確に描画させることができる。

cafe-instagramやzeipher-f222など複数存在し、Basil_Mixのようなアジア人に特化したもの存在する。

後述するマージモデルベースの一つ。

マージモデル(階層マージ)

モデル同士を混ぜるマージモデルに進展があった。

U-NET階層ごとにマージを行う階層マージというマージ手法が考案されたからだ。

これにより実写モデルベースに見た目をアニメ風にマージするという方法が採れるようになった。

流行っているモデルシリーズを二つ挙げてみる。

AbyssOrangeMixシリーズ

5chなんU(なんJもしくはなんGのパートスレ向けの板でVIPに対するパー速のような板)の住民作成した階層マージモデル

現在はBasil_MixとAnythingv3を階層マージしている。

このモデルには派生版があり、nsfw版やhard版は上記マージモデル(通称base)にNAIリークモデルやGape60を混ぜたものらしい。

Gapeについては前回の記事を参照。

 

NAIのように長いネガティブプロンプトを設定しなくても綺麗な絵を出すことができる。

7th_layerシリーズ

リアルよりになったAbyssOrangeMixを漫画アニメ向けにファインチューンしたモデル

Abyss→深界七層(メイドインアビス)→7th_layerということらしい。

アニメ寄りなA、漫画寄りなB、より漫画寄りで破綻やすいCの三種類がある。

Anything系のような中華で好まれる独特の厚塗りではなく比較的パキっとした塗りの絵が出るので個人的には一番好き。

 

他にもいろんなマージモデルがあるが、だいたいがNAIリークモデルAnythingv3と実写系モデルを混ぜたりそれにファインチューンをかけたりしたモデルだ。

Anythingv3もNAIリークモデルベースからなんだかんだいってNovelAIが作ったモデルはまさに特異点的な存在なのだろう。

LoRA

Low-rank Adaptation for Fast Text-to-Image Diffusion Fine-tuningの略で、

Dreamboothの簡易版のようなものとされているが実はDBとは似て非なる技術らしい。

DBよりも短い時間かつ省メモリ環境学習可能で、生成されるファイルも30~200MB程度とHypernetworkとそこまで変わらず一定以上のクォリティで追加学習を行えるようになった。

何よりもVRAMが8GB程度のグラボでも学習できるようになったのが大きい。

現在目的ごとに大きく分けて3種類のLoRAがある。

Style

特定の作者の画像学習させることでその画風を再現するためのLoRA。

従来はHypernetworkで行っていた。

Concept

特定のものやこと(例:ふたなり)を学習させるためのLoRA。

NovelAIやその派生モデルでは困難だった種付けプレスや断面図などの構図の再現可能となった。

Character

キャラクター再現するLoRA。

従来は主にDBで行っておりモデルの配布に苦労していたがLoRAによって配布が非常に楽になった。

 

なお、LoRAは同時に複数適用させることもできるため

士郎正宗風の絵柄でふたなりナンジャモ」という画像を生成することもできる。

 

またLoRAはHypernetworkのようにモデルを選ばないが、NAIリークモデル学習ベースにすると破綻しづらいらしい。

というか今流行っているモデルはほぼNAIリークモデル血筋が入っているので馴染みやすいんだろう。

そのほか

HuggingFace

https://huggingface.co/

アメリカの謎のベンチャー企業通称🤗。

同社が運営しているHuggingFace HUBユーザ登録すれば無料無限AI学習モデル(1ファイル2GB~7GB)をアップロードできる上回線も異常に高速であるため重宝されている。

モデルマージなどでストレージが圧迫されているローカル民にとっては救世主のような存在

資金源は謎だが、2022年5月に2億ドル調達しているのでストレージ無尽蔵に増やせるらしい。知らんけど。

SAFETENSOR

HuggingFaceが考案したモデルファイルファイル形式

実行コードを含んでいることもあり従来のckptモデルしょっちゅうトロイの誤検出が起きていたが、

SAFETENSOR形式モデルは実行コードを含まないため安全であるとされる。

🎈

スカトロ、転じてウンコのもののこと。由来は割愛する。

Baloon_MIXというスカトロ特化のマージモデルもあるらしい。

2023-01-22

GPT医療現場で使われる可能性について聞いてみた

Cural Health」や「Drexel’s University」「Nabla」など、各所でGPT-3の検証がなされているので、今後 医療現場GPTが使われるようになる可能性を聞いてみた。

GPT-3の実装を軽く確認

Me:

あなたはどのように実装されたの? Deep Learning?

GPT:

はい、私はDeep Learningによって実装されました。特に、Transformerと呼ばれるアルゴリズム使用して学習されました。これは大量のテキストデータ学習し、自然言語処理タスク適用することができるように設計されています

Me:

もっと詳しく。

GPT:

Transformerは、自然言語処理タスクのためのDeep Learningアルゴリズムです。それは、大量のテキストデータ学習し、それを解釈し、理解することができるようになります。 Transformerは、複数の層からなるニューラルネットワーク使用して、テキストを処理します。それは、大量のデータ効率的に処理するために、Attention機構使用します。これは、特定の部分のテキストに注目しながら、それらの関係理解することができるようになります。Transformerは、自然言語処理タスクにおいて非常に成功しています。それは、自然言語翻訳文章解釈質問応答などのタスク適用されており、高い精度を発揮しています。私はTransformerを使用して学習され、自然言語処理タスク適用することができます

Me:

事前訓練とかしているんだよね?

GPT:

はい、私は事前学習を受けています。事前学習とは、大量のテキストデータ使用して、言語モデル学習することを指します。これは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。事前学習は、言語モデルパフォーマンスを大幅に改善することができます。それは、事前学習済みのモデル使用することで、新しいタスクに対して学習スキップすることができ、タスク特化の fine-tuning を行うことができるためです。私は、大量のオンラインテキストデータ使用して学習され、それを解釈し、理解することができるようになりました。それは、自然言語処理タスクに対して高い精度を発揮することができます

Me:

今のパラメータはいくつ? 前のバージョンよりどのくらい精度がよくなった?

GPT:

私の現在パラメータ数は、数百億から数千億となっています。これは、大量のデータ使用して学習し、高い精度を達成するために必要パラメータ数です。精度は、バージョンによって異なりますが、一般的には、前のバージョンよりも高い精度が達成されています。これは、新しいアルゴリズム技術進歩によって、より良い結果が得られるようになってきているためです。また、事前学習済みのモデル使用することで、新しいタスクに対して学習スキップすることができ、タスク特化の fine-tuning を行うことができるため、精度が向上していることも見られます

Me:

具体的なパラメータ数は? 前バージョンGTP-2、現バージョンGPT-3、次バージョンGPT-4、それぞれ教えて。

GPT:

GPT-2は、1.5バイアレイパラメータを持っていました。それは、大量のテキストデータ使用して学習し、自然言語処理タスク適用することができるようになっていました。GPT-3は、175バイアレイパラメータを持っています。これは、GPT-2よりも多くのパラメータを持っており、より高い精度を達成することができますGPT-4はまだリリースされていないため、そのパラメータ数については確定していません。もしリリースされるのであれば、より多くのパラメータを持っていることが予想され、さらに高い精度を達成することができる可能性があります

Me:

175バイアレイパラメータって何? 1750億パラメータの間違いでは?

GPT:

そうです、GPT-3は175バイアレイパラメータを持っています。それは1750億のパラメーターを持っていることを意味します。これは、大量のデータ使用して学習し、高い精度を達成するために必要パラメータ数です。これは、現在自然言語処理タスクに対して最も大きなモデルであり、高い精度を達成することができるため、市場においても高い評判を得ています

Me:

バイアレイパラメータ英語表現して。

GPT:

A "peta-parameter" or "Peta-parameter" (PT) is a measure of the capacity of a machine learning model, specifically the number of parameters it has. In the case of GPT-3 it has 175 peta-parameters, meaning it has 175 million billion parameters. These parameters help the model to understand and interpret large amounts of text data, allowing it to perform natural language processing tasks with high accuracy.

Me:

「175 billion parameters」の間違いでは?

GPT:

そうです、「175 billion parameters」の間違いでした。 GPT-3は175 billion parametersを持っています。それは、自然言語処理タスクに対して高い精度を発揮するために必要パラメータ数です。申し訳ありませんでした。

Me:

GPT-3はどのように概念レベル知識を持つの? Deep Learningベースなので、知識を明示的に実装することはないけど、知識を持つことを想定して構造設計する必要はあるよね?

GPT:

GPT-3は、大量のテキストデータ使用して学習されました。それによって、自然言語処理タスクに対して高い精度を発揮することができます。それは、事前学習済みのモデル使用することで、新しいタスクに対して学習スキップすることができ、タスク特化の fine-tuning を行うことができるためです。GPT-3は、大量のテキストデータから概念レベル知識学習します。それは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。 それは、単語文章関係性、文章構造文章意味などを理解することができるようになりますGPT-3は、Deep Learningベースモデルであり、知識を明示的に実装することはありませんが、大量のテキストデータから知識学習することができるように構造設計されています。それは、Attention機構使用して特定の部分のテキストに注目しながら、それらの関係理解することができるようになります

Me:

Attention機構について詳しく。

GPT:

Attention機構は、自然言語処理タスクにおいて重要役割を担う機構です。それは、大量のテキストデータを処理するために使用され、特定の部分のテキストに注目しながら、それらの関係理解することができるようになります。Attention機構は、Seq2Seqモデルなどの自然言語処理タスク使用されています。それは、入力シーケンスから出力シーケンスを生成するために使用されます。Attention機構は、入力シーケンスのある部分に注目し、それに基づいて出力シーケンスを生成することができるようになります。Attention機構は、ニューラルネットワークの中で使用されます。それは、重み付けされた平均値計算し、それに基づいて入力シーケンスから重要な部分を選択することができるようになりますGPT-3は、Attention機構使用して、大量のテキストデータから概念レベル知識学習し、文章意味理解することができるようになります

2023-01-19

ChatGPTにお前はどうやって実装されてんの?って聞いてみたら

マジレスされてチビッた.こりゃGoogleさんもビビるわけだ.

ぼく:

How were you implemented? Is it deep learning-based?

ChatGPT:

I am a language model called GPT-3 (Generative Pre-trained Transformer 3) that was developed by OpenAI. It is a deep learning-based model that uses a type of neural network called a transformer, which was trained on a large dataset of text to learn patterns of language.

GPT-3 is trained using a technique called unsupervised learning, where the model is given a massive amount of text data and uses this data to learn patterns and relationships in the language. This allows GPT-3 to generate human-like text when given a prompt, and to understand and respond to natural language input.

The training process of GPT-3 involves a technique called pre-training, which means that the model is trained on a massive dataset before being fine-tuned on a smaller task-specific dataset. This pre-training allows GPT-3 to have a good general understanding of the language and to be able to adapt to specific tasks more easily.

The GPT-3 model has 175 billion parameters, which is one of the largest language models to date, making it able to generate very human-like text and to understand context in a very natural way.

ぼく:

How does GPT-3 have a knowledgebase like an ontology? As it is deep learning-based, the knowledgebase like an ontology would not be implemented explicitly, but the structure should be designed with an expectation of having such a knowledge about hierarchy of concepts.

ChatGPT:

GPT-3, like other deep learning models, does not have an explicit knowledgebase or ontology built into its structure. Instead, it has been trained on a large dataset of text, which allows it to learn patterns and relationships between concepts.

However, the training data that GPT-3 was exposed to, likely contains a wide range of concepts and hierarchical structures. As GPT-3 learns patterns in the data, it can begin to understand the relationships between different concepts and ideas, and how they are related to each other. This allows the model to generate text that is more coherent and semantically meaningful, making it possible to understand the context and hierarchy of concepts, but it does not have an explicit ontology like a knowledge graph.

It can be said that GPT-3 has a certain level of "implicit ontology", in the sense that it has learned the relationships between concepts in a way that is similar to how a knowledge graph or ontology organizes information. However, it's important to note that GPT-3's understanding of concepts and relationships is based on the patterns it has learned from the training data, which is not a structured and explicit knowledgebase like an ontology.

ぼく:

Then how does GPT-3 handle the long-term or short term memories? Can it remember information about the on-going chatting? My name is Masuda, can GPT-3 keep it in the memory? Furthermore, can it learn and understand the new information from the Q-A queries, and use it in the future queries?

ChatGPT:

GPT-3 handles long-term and short-term memories differently. When it generates text, it uses a technique called attention mechanism which allows the model to focus on certain parts of the input while generating the output. This allows GPT-3 to keep track of previous information and context when generating text, which can be thought of as a form of short-term memory.

Regarding the on-going chatting, GPT-3 can keep track of certain information, like the name you've provided, Masuda, during the conversation and use it in future responses. However, it's important to note that GPT-3 is a stateless model, which means that it doesn't have a permanent memory that it can refer to after a conversation ends.

Regarding learning from Q-A, GPT-3 is trained on a massive dataset of text, and it learns patterns and relationships between concepts from this data. It can generate text that is semantically meaningful and coherent, but it does not have the capability to learn new information from Q-A sessions and use it in future queries. However, OpenAI has developed another model called DALL-E, which uses GPT-3 and it is capable of learning from Q-A sessions and use it in future queries.

ぼく:

Is ChatGPT superior to the Google search? Previously people used Google to search for their questions. Now a days, ChatGPT can answer to those questions. What are pros and cons of ChatGPT over the Google search?

ChatGPT:

ChatGPT and Google search are different technologies with different capabilities and strengths.

Google search is a powerful web search engine that can quickly find relevant information from a vast amount of web pages and documents. It uses complex algorithms to rank and sort search results based on relevance, popularity, and other factors. Google search is very good at providing factual information and is an excellent tool for researching a wide range of topics.

ChatGPT, on the other hand, is a natural language processing model that can generate human-like text. It is trained on a large dataset of text and uses this knowledge to understand and respond to natural language input. ChatGPT can generate text that is more coherent and semantically meaningful than a simple information retrieval engine like Google search. ChatGPT can also be used to generate text that is more engaging and human-like, such as in chatbots and virtual assistants.

One of the main advantages of ChatGPT over Google search is its ability to understand and respond to natural language input in a more human-like way. ChatGPT can also generate text that is more coherent and semantically meaningful, which can be useful in many applications. However, Google search is better at providing factual information and searching for specific pieces of information.

Another disadvantage of ChatGPT is that it doesn't have the ability to retrieve information from the web, it can only generate text based on the patterns it has learned from the training data. That's why it's not a replacement for a web search engine like Google but it can be used as an additional tool to help people to find the information they are looking for.

In summary, ChatGPT and Google search have different strengths and capabilities. While Google search is better at providing factual information, ChatGPT is better at understanding and responding to natural language input in a more human-like way.

ぼく:

Why don't ChatGPT refer to Google search in the generation of the conversation? Google Assistant has such a function. Is the reason due to the fact that OpenAI is funded by Google?

ChatGPT:

ChatGPT is a language model that generates text based on the patterns it has learned from the training data. While it can understand and respond to natural language input in a human-like way, it does not have the capability to access external sources of information like Google search.

Google Assistant, on the other hand, is a virtual assistant that can access a wide range of information and services through the internet, including Google search. Google Assistant can use this information to provide more accurate and relevant responses to user queries.

The reason ChatGPT does not refer to Google search during the generation of the conversation is likely because it was not designed or trained to do so. Instead, it was designed to generate text based on the patterns it has learned from the training data, and it does not have the capability to access external sources of information.

It's worth noting that OpenAI and Google are separate organizations, even though Google is an investor in OpenAI, this doesn't necessarily mean that the two companies work together on their products and services. OpenAI has its own development team, goals and roadmap and they are independent from Google.

ぼく:

I am going to post this conversation with ChatGPT in the anonymous diary of Hatena co. What should I do for attracting people to get many bookmarks?

ChatGPT:

There are several things you can do to attract people and increase the chances of your conversation with ChatGPT getting many bookmarks on Hatena diary. Some suggestions include:

1. Make sure your conversation is well-written and easy to understand. Use clear and concise language, and consider formatting your text in a way that makes it easy to read.

2. Use relevant keywords and hashtags in your diary entry. This can help make your conversation more discoverable to people searching for related topics on Hatena diary.

3. Include images or videos in your diary entry. This can make your conversation more visually appealing and can help attract more readers.

4. Share your diary entry on social media or other platforms. This can help increase the visibility of your conversation and attract more readers.

5. Encourage readers to share their thoughts and opinions on your conversation by including a call to action or a question at the end of your diary entry.

6. Finally, you can also try to participate in the conversation on Hatena diary, by answering the questions, responding to the comments, and engaging with your readers.

It's important to remember that getting many bookmarks on a diary is not easy and it can take time and effort to build an audience. But by following these tips and being consistent with your diary entry, you will increase the chances of attracting more readers and getting more bookmarks.

ぼく:

Thank you. By the way, what is my name?

ChatGPT:

You've mentioned your name is Masuda.

2023-01-11

2023冬アニメクール、不作のお知らせ

BS11最後の空き枠はこちら(泣)

中国大陸ブローカーしか買えない様な現状のホビー宣伝とか空しくないのか?

バンダイスピリッツの宇田川政権

https://twitter.com/BS11_Anime/status/1613105967436267520?t=xjIO1bnYKywyJZ4-k04tZw&s=19

あのさあ

俺がどんだけ冬クール特異点ともいえる

日曜24:30に期待してたのか分かる?

放映10周年のたまこまーけっとや昨冬の3騎士一角たるスローループ

そしてBS放送Aチャンネル

きららどころか超正統派のジェネきらすら保証されないザマの冬クールさらに惨めにしてどうするんだよBS11バンナムは。

こんな事してるからとりぐらふ氏から「今期マジでゴミすぎる」「サブカル界隈が事勿れ主義から業界役所天国みたいになって質より量みたいになる」とかドヤされるんだよ、分かる?

関連URL

https://twitter.com/torigraff/status/1612125564550406146?t=pL7oCwqO-xXefjjiCzczIQ&s=19

https://twitter.com/torigraff/status/1612125818268061699?t=2xu1FmTolSSfsEH1epYTxQ&s=19

問題はこれだけじゃねえよ。

サブカルマジョリティ的な作風・画風に侵食される一途を辿っている男女間ラブコメ界において久々のサブカルマイノリティ的な作風・画風作品であるお隣の天使様がBS日テレの土曜深夜24時に飛ばされた事だよ!

土曜深夜24時といったらMXBS11幹事深夜アニメ界の土6日5枠ともいえるアニプレ24裏番組になってるんだぞ?

製作委員会さまがBS日テレなんかに魂を売り渡したせいで…

BS日テレの帯24時台なんか4Kサイマルやってくれない(4K通販)ため製作者にとって恐怖の地、アニメ界のシババーだよ。

その一方でサブカルマジョリティ属作ラブコメはこの直近数年間フルHDBS114Kサイマルありの他BS局枠貰いやがってきた。

BS11

宇崎ちゃん(ツイフェミ強硬派左派被害者からって絶対的神秘化はしない。)、

長瀞さん、先うざ、久保さん、五等分2期、冴えカノfine、友崎くん、着せ恋

BS日テレ・BS-TBSBS朝日編

高木さん2(再放送)、それ歩、俺ガイル完、

僕ヤバ(4月予定)、恋セカ、かのかり2期

さらに酷いことはサブカルマイノリティラブコメに属するニャル子さん再放送の機会が厳しくなったことだよ、ある作曲家馬鹿なことに手を染めたせいで。

…話を放送枠・再放送・今期のことに戻す。

こんな新作すし詰め状態で質より量みたいになる前にBS11はあの9ヶ月(21年4〜12月)で空き枠を有効活用するべきだったのにしなかった事がどれだけ愚かだったか!!

あの9ヶ月(21年4〜12月に主に空き枠で放送されてた再放送一覧)

シグルリ(アニプレオリジナルミリタリー系最弱)、神なた、デビルズライン、裏世界ピクニック

24時はとくに惨め

ひぐらしのなく頃に蛇(3クールである足の前哨戦)からまり

たとえばラスダンの、スケートリーディング(毒魔さんからクソ認定されました)

22年も悪夢の9ヶ月残党が残ってた。

無印完結編3話放送無しのシュタゲゼロセブンナイツ、そして全日舞台を移してお境界戦機さま。

だけれど希望もあったよ。あの9月と1年にも。

ハローきんモザ、モーパイゆるゆりせれくしょん

しかしどうだ? 絶望の方が多すぎるじゃん、

こんな傲慢な枠の使い方やりつづけてたらみんなテレビから離れてVTuberゲーム雑談配信に行ってしまうの当たり前だろ!!

魔女の旅々見たかった人、バキの過去シリーズたかった人だっていたんだよ!

でもあんな酷い再放送ラインナップだったらみんなVTuber配信シフトするの当然の結果だよ!!

人によってはのんのんゆるキャン終わってから久しぶりに見たアニメきんモザ2期だったというケースもあるほどなんだぜ?

改めて今期の不作ぶり考えたらせいぜい救いはおにまいぐらいしかねえのかよ、再放送枠も潰されたし。

ハルヒ2009年版もBS日テレ帯24飛ばしされたし。

2022-11-15

中国製Fine-tuningされたStableDiffusionはロリ絵もかなりハイクオリティで描けるようになってるぞ

マルウェアが入ってることもあるらしいので注意

2022-09-27

自炊世界

Stable diffusionがローカル環境やColabで簡単に動くから色々試してた。NSFWフィルタ回避して、呪文こねくり回して、特定人物を描くために画像を集めてfine tuningをして、そこそこ良い感じの画像ができるようになってきたが急に飽きた。

生産性が低いせいだ。結局のところ静止画なので、表現できることは限られている。幾ら作っても実用性に欠ける。

そこで、あまり興味がなかったディープフェイクを調べてみたが、今ひとつだった。内容に限りがある。好きなように作れたら良いが、fine tuningみたいな作業は骨が折れるから、そこまでしてやりたくない。

と思っていた矢先、たった1枚の顔写真を元に動画の顔をすげ替える技術があり、オープンソースで公開されているのを見つけた。少ないが公開されている例を見るに、かなり精度が良いように見えた。

Colabですぐに触れるようになっていたので試したところ、どうやら万能というわけではなくコツが要るらしい。顔がほぼ正面で、かつ、顔がアップではない静止画および動画だと、出来が良かった。顔が相対的に小さくなるように四方に枠をつければ上手く認識された。

可能性を感じたが、Colabであれこれするのも良くないので、ローカル環境を構築した。公開されている環境のtorchのバージョンが低く、手持ちのGPUマッチしなかったため、ハマりまくったが何とかWSL2で環境を組めた。

メモリ32GB、RTX 3090の環境で、フルHDで1分の動画を生成するのに30秒程度かかる。時間がかかりすぎると思うかもしれないが、十分早い。スクリプトを書いて放置しとけば次々に出来るからだ。

あくま個人利用をしていることを前提に結果を述べると、かなり実用性の高いものを生成できることはなかった。生成したものは全部削除した。本当に削除してHDD破壊した。

この域に達してみて分かるのは、この手の技術は本当に危険だと言うことだ。たった1枚の顔写真でこんなことが可能なら、一般人であっても人前に顔を晒すのはリスクが高すぎる。

最近では1枚の画像から解像度アバターを生成する技術も登場しており、大変憂慮すべき事態であるため、今後もあくま個人的に注視していきたい所存である

2022-06-24

[]このあいだ買ったチョコレートに書かれていたヘブライ語

LINDT & SPRÜNGLI

MASTER SWISS CHOCOLATIER

SINCE 1845

לינדט אקסלנס - שוקולד מריר

מעולה 70% מוצקי קקאו

リンツエクセレンス-ビターチョコレート

優れた70%のカカオ固形

מינימום מוצקי קקאו בשוקולד

מריר מעולה :70%

チョコレートの最小ココア固形

優れた苦味:70%

רכיביים: עוסת קקוא, סוכר, חמאת קקאות וניל.

成分:カカオパルプ砂糖バニラカカオバター。

עלול להכיל : חלב, סויה, זרעי שומשום,

אגוזים (לוז, שקד, קשיו, קוקוס, מלד, מלך,

מאקדמיה, פקאן, פיסטוק, צנובר)

まれ可能性があります牛乳大豆ゴマ

ナッツヘーゼルナッツアーモンドカシューナッツココナッツ、メラッド、キング

アカデミーピーカンピスタチオどんぐり

היצרן: לינדט ושפרנגלי אס איי אס,

אולרון סנט מארי - אף. אר 64400,

צרפת

メーカー:Lindt and Sprangli SS

ウルロンセントマリー-鼻。 AR 64400、

フランス

כשר חלבי - לאוכלי אבקת חלב נוכר

בהשגחת משולש K ארה"ב

ובאישור הרבנות הראשית לישראל

乳製品コーシャ-外国粉乳を食べる人のために

TriangleKUSAの監督

そしてイスラエル首席ラビネートの承認を得て

סימון תזונתי ב - 100 גר' מוצר :

אנרגיה (קלוריוית ) 566

חלבונחים (גר') 9.5

פחמימות (גר') מתוכן: 34

סוכרים (גר') 29

סך השומנים (גר') 41

חומצות שומן ראוויות (גר') 24

חומצות שומן טראנס (גר') פחות מ -0.5

כולסטרול (גר') 1

נתרן (מ''ג) 39

100g製品栄養表示:

エネルギーカロリー566

タンパク質(g)9.5

炭水化物(g)含有量:34

砂糖(g)29

脂肪(g)41

飽和脂肪酸(g)24

トランス脂肪酸(g)0.5未満

コレステロール(g)1

ナトリウムmg)39

Extra fine dark chocolate 100g

Cocoa solids: 70% min.

Ingredients: cocoa mass, sugar, cocoa butter, vanilla.

May contain nuts, milk, soya, sesame seeds and hazelnuts.

Imported by: DKSH Singapore Pte Ltd, 47 Nalan Buroh #09-01, Singapore 619491.

יבואןף : משה ס'דס ובנו בע"מ, רח' היוצר 3ת באר יעקבץ

יש לשמור במקום קריר ויבש.

輸入業者:Moshe Sadesと彼の息子Ltd.、3 Hayotzer St.、Beer Yaakov

涼しく乾燥した場所に保管してください

Store in a cool and dry place.

グーグル翻訳

2022-05-20

平成5年まれが選ぶ平成邦楽BEST50から漏れた曲。

anond:20220520013638の中に書いてたけど文字数制限で省かれてしまったので別に載せる。せっかくの苦労を無駄にしたくない。

以下、BEST50から漏れた曲。

2022-05-15

英語ウクライナ情勢における頻出英単語【速習】

3月に書いた記事以降も、たくさん新しい単語を覚えてしまったので、前回のものも含めて網羅するつもりで紹介します。

政治

反戦

被害

大量虐殺

軍事

と思ったらトラバ(anond:20220530232733)で指摘してもらった。知らんかった。

片仮名モラルはmoral 道徳
morale は 士気

戦術

武器


Paka Paka 🤗 (ロシア語でバイバイ)

2022-04-29

音声の書き起こし&本人による英訳&増田による和訳

Приветствую всех и с добрым временем суток. Меня зовут Юра. Я из России. Это не моё настоящее имя, действую в целях анонимности, прошу любить и жаловать. В мире, как мы все знаем, 24 февраля началась и продолжается по сей день "Спецоперация на Украине". Воистину это ужасное событие, которое влечёт за собой тысячи и тысячи жертв с обеих сторон конфликта. Цель "Спецоперации на Украине" - Денацификация Украины. Если вам в новостных каналах и в средствах массовой информации говорят, что цель спецоперации - не денацификация - значит таковы новости, таковы их источники, ничего не поделать. Каково моё мнение на этот счёт? Начну с того, что лично я против любой войны. Для меня война - это зло, это насилие. И то, что всю Россию и россиян в целом считают агрессором и просто ужасными людьми - это плохо, потому что ужасные люди и аггресоры - это те люди, которые ведут себя подобным образом и хотят тем самым разжигать пламя войны ещё сильнее дабы получить с этого удовлетворение в виде ещё одного убийства, прощения со стороны жертв, которые молят о пощаде и прочего. В России и так находятся миллионы людей, которые категорически против войны и которые не хотят, чтобы их считали последними тварями только потому, что так всё получилось. У меня, например, есть несколько друзей с Украины, которые сейчас находятся там и переживают эти взрывы, бомбы, ракеты и всё остальное, что перечислять не хочу. Я продолжаю держать с ними контакт и мы, слава богу, не думаем обо всём этом и стараемся поддерживать друг друга благодаря весёлым мемам, смешным видео, просто хорошим новостям из разных индустрий, чтобы хоть как-то разрядиться. Ведь самое главное, самое главное - война не изменила наши умы потому, что мы знаем что война не должна быть тем препятствием, благодаря которому наша дружба должна рухнуть. За это я их и ценю. Что держатся и не падают духом даже в такие тяжёлые дни и не "ищут предателей среди своих друзей, только потому что они русские", так сказать. Конечно же, есть и обратные примеры, что с начала войны некоторые мои знакомые начали отстаивать свою позицию как русских, что украинцы не люди и вообще спецоперация всё сделает к лучшему, что "мы сравняем города с землёй" и "денацифируем всё"... К сожалению, с такими людьми уже и общаться стыдно, что уж говорить, всё очевидно. В моём городе, например, я пока не наблюдаю сильной пропаганды, что "мы должны верить в то, что мы следуем справедливой цели", что всё образуется именно так как надо. Ну, даже если пропаганда и существует у нас, то я её и не наблюдаю. Да и не хочу наблюдать, потому что, как мне кажется, такую информацию стоить игнорировать и жить дальше, следуя своей цели в жизни. Я никогда не считал себя патриотом своей страны. Это звучит странно, да, но и врать мне нет смысла в этом. Я родился в России - значит так должно было случиться. Тем более я б хотел, что бы один из моих друзей на Украине, вот как раз один из них, смог пережить эту войну и смог поиграть в ту же самую Kingdom Hearts 4, т.к. я его с этой серией игр и познакомил. Я бы очень хотел, чтобы он увидел продолжение данной серии игр, чтобы он смог это вё увидеть. Я очень на это надеюсь. Ведь я, он, и многие другие такие же обычные люди - ходим на работу, спим, едим, играем, отдыхаем. И также я просто хочу, чтобы те, кто слушает меня сейчас не считали всех русских и россиян плохими, потому что я в вас верю, абсолютно всех. И неважно какой вы расы, неважно какой религии верите, это неважно. Главное, что вы остаётесь теми людьми, в которых можно верить, на которых можно надеяться и которые продолжают думать о том, что всё будет хорошо. И даже если у кого-то есть силы на то, чтобы исправить эту всю ситуацию, у кого есть эти возможности - то они смогут это изменить к лучшему и всё сделать мирно, что очень очень важно для нас сейчас. Поэтому я верю в мир, который обязательно наступит. И он наступит именно таким, что украинцы, что русские смогут пожать руки и сказать, что "Всё. У нас будет мир, у нас будет всё." Спасибо за внимание.


Greetings to all and with a good time of day. My name is Yura. I'm from Russia. This is not my real name, I act for the purposes of anonymity, I ask you to love and favor. In the world, as we all know, on February 24, the "Special Operation in Ukraine" began and continues to this day. Truly, this is a terrible event that entails thousands and thousands of victims on both sides of the conflict. The purpose of the "Special Operation in Ukraine" is the Denazification of Ukraine. If you are told in the news channels and in the media that the purpose of the special operation is not denazification, then this is the news, these are their sources, nothing can be done. What is my opinion on this? To begin with, I personally am against any war. For me, war is evil, it is violence. And the fact that the whole of Russia and Russians as a whole are considered an aggressor and just terrible people is bad, because terrible people and aggressors are those people who behave in this way and thereby want to kindle the flames of war even more in order to get satisfaction from this in the form of another murder, forgiveness from the victims who beg for mercy and other things. There are already millions of people in Russia who are categorically against the war and who do not want to be considered the last creatures just because everything turned out that way. For example, I have several friends from Ukraine who are currently there and are experiencing these explosions, bombs, rockets and everything else that I do not want to list. I continue to keep in touch with them and, thank God, we don't think about all this and try to support each other through funny memes, funny videos, just good news from different industries to somehow discharge. After all, the most important thing, the most important thing is that the war has not changed our minds because we know that war should not be the obstacle through which our friendship should collapse. That's why I appreciate them. That they hold on and do not lose heart even in such difficult days and do not "look for traitors among their friends, just because they are Russians," so to speak. Of course, there are also reverse examples that since the beginning of the war, some of my friends have begun to defend their position as Russians, that Ukrainians are not people and in general the special operation will do everything for the better, that "we will level cities to the ground" and "denazify everything"... Unfortunately, it's already a shame to communicate with such people, what can I say, everything is obvious. In my city, for example, I have not yet observed strong propaganda that "we must believe that we are following a fair goal," that everything will work out exactly as it should. Well, even if propaganda exists here, I don't observe it. And I don't want to watch, because, as it seems to me, such information should be ignored and live on, following my goal in life. I have never considered myself a patriot of my country. It sounds strange, yes, but there's no point in lying to me about it. I was born in Russia - so it had to happen. Moreover, I would like one of my friends in Ukraine, just one of them, to be able to survive this war and be able to play the Kingdom Hearts 4, because I introduced him to this game series . I would really like him to see the continuation of this game series, so that he could see it. I really hope so. After all, I, he, and many others are just ordinary people - we go to work, sleep, eat, play, relax. And also I just want those who are listening to me now not to consider all Russians and Russians bad, because I believe in you, absolutely everyone. And no matter what race you are, no matter what religion you believe, it doesn't matter. The main thing is that you remain the people in whom you can believe, on whom you can hope and who continue to think that everything will be fine. And even if someone has the strength to fix this whole situation, who has these opportunities, they will be able to change it for the better and do everything peacefully, which is very very important for us now. Therefore, I believe in peace, which will surely come. And it will come exactly like that, that Ukrainians, that Russians will be able to shake hands and say that "Everything. We will have peace, we will have everything." Thanks for attention.


この良き日に、皆さんにご挨拶します。

私はロシア出身のЮраです。{増田注:この「ゆ」にちょっと似た形の文字はなんと発音も「ゆ」に近い……つか英語と違って一文字で「ゆ」の発音になるんだなあ面白い}これは名無しとしてふるまうための仮名です。あなたの愛と好意を願います。ご存じのとおり、世界では「ウクライナでの特別作戦」が2月14日に始まり今も続いています。本当に恐ろしい出来事です。この衝突で双方が膨大な死者を出しています。この「ウクライナでの特別作戦」の目的ウクライナの非ナチ化です。もし「この作戦目的は非ナチ化ではない」とメディアが言ったらそれこそニュースです。これが彼らの情報源です。どうにもなりません。

これについての私の意見は何か? まず、私は個人的にあらゆる戦争に反対します。私にとって戦争は悪で、暴力です。また、ロシア全体やロシア人全体を侵略者や単に悪人のようにとらえるのはよくないことです。なぜなら悪人侵略者とは、このように行動して戦火さら燃え上がらせることで殺人被害者の命乞いから満足感を得る人々のことだからです。

断固として戦争に反対したり、全てが今のようになったからという理由だけで最低の生物だと思われたくないと思ったりしているロシア人がすでに何百万人もいます。たとえば私には、今もウクライナで爆発や爆撃やミサイルなど、書き並べたくもないような目にあっている友人が数人います。私はいまも彼らと連絡を取り続けており、そして、神よ、ありがたいことに私たちはそのような恐ろしいことについて考えず、面白いミーム動画、別の分野からのいいニュースを交換しています

結局、大切なこと…一番大切なことは、戦争私たち友情の妨げになってはならないと知っているので、私たちはこの戦争によって心を変えられていないということです。これが彼らに感謝している理由です。彼らはあのような辛い日々の中でも耐え、心を失わず、「ロシア人だからと言うだけの理由で、友の中から裏切り者を探さない」のです。もちろん戦争が始まる時には逆の例もありました。私の友人の一部はロシア人としての立場を守り始め、「ウクライナ人は人ではなく、特別作戦ですべてはよくなる。あの街を地ならしし、すべてを非ナチ化する」と言っていました。不幸なことに、このような人々と会話することはすでに恥です。何が言えるだろう、全ては明らかです。

たとえば私の街ではまだ「我々は公正な目標に従っている、そう信じればすべてはうまくいく」のような強いプロパガンダは見ていません。いいえ、もしそのようなものがあったとしても私は見ません。見たくもありません。そのようなものは私が自分人生目標に近づくためには無視しなければならないもののように思えるからです。私は自分自身が愛国者だと思ったことはありません。奇妙に聞こえるでしょうが、この点において嘘はありません。私はロシアに生まれました。だからこうならなければいけなかったのです。また、私はウクライナの友人の1人に、そう1人に生き延びてキングダムハーツ4をやってほしいです。私が彼に勧めたシリーズからです。どうしても彼にこのシリーズの続きを見てほしい。本当にそう願います。結局、私も彼も、他の皆もただの普通の人々です。私たちは働き、眠り、食べ、遊び、安らぎます

この話を聞いているみなさん、どうかすべてのロシア人を悪と考えないでください。私はあなたがた全員を絶対に信じていますあなたがどんな人種であろうと、どんな宗教を信じていようと、関係ありません。重要なのは自分自身を信頼でき、自分自身に期待でき、全てがうまくいくと考えられるような人間であり続けることです。この状況を修復する力と機会をもつ人間がいれば、彼らはこれをよりよくし、全てを平和的に行うことができるでしょう。これが私たちにとって重要なことです。

したがって私は平和が必ず来ると信じます。そしてウクライナ人とロシア人が手を握り合い「私たち平和を得る。全てを得る」と言えることを信じます。ご清聴ありがとうございました。



ちなみに増田はtoeic700くらいしかありません。訳文の精度はお察しください。

あと原文からして意味が通ってないとこがあるっぽいですがご愛嬌ということで。

2022-03-22

anond:20220307185236

隕石攻撃」の箇所に関する訳註です。https://anond.hatelabo.jp/20220316191220 でのご指摘に感謝します。

Igor Sushko氏による英文は以下のとおり。

https://twitter.com/igorsushko/status/1500301354358636546 / https://twitter.com/igorsushko/status/1500301355990204420 / https://twitter.com/igorsushko/status/1500301356988387328

For example – you are being asked to analyze various outcomes and consequences of a meteorite attack on Russia (MY COMMENTARY: Here he most likely means the West’s sanctions) –

So you research the mode of attack, and you are being told that it’s just a hypothetical and not to stress on the details, so you understand the report is only intended as a checkbox for some bureaucrat, and the conclusions of the analysis must be positive for Russia,

otherwise you basically get interrogated for not doing good work. So, you have to write that we have all necessary measures available to nullify the effects of a given type of attack. We are completely overworked.

一方、ロシア語の原文 https://www.facebook.com/vladimir.osechkin/posts/4811633942268327 の中で、これに相当する箇所はこちら。

И вот Вам пример: Вас просят (условно) рассчитать возможность правозащиты в разных условиях, включая атаку тюрем метеоритами. Вы уточняете про метеориты, Вам говорят - это так, перестраховка для расчетов, ничего такого не будет. Вы понимаете, что отчет будет только для галочки, но написать надо в победоносном стиле, чтобы не было вопросов, мол, почему у Вас столько проблем, неужели Вы плохо работали. В общем, пишется отчет, что при падении метеорита у нас есть все, чтобы устранить последствия, мы молодцы, все хорошо. И концентрируетесь на задачах, которые реальные - у нас ведь сил и так не хватает.

これをGoogle翻訳英訳したものが以下になります。(DeepLでもだいたい似たような訳になりました。)

And here's an example for you: you are asked (conditionally) to calculate the possibility of human rights protection in different conditions, including the attack of prisons by meteorites. You specify about meteorites, they tell you - this is so, reinsurance for calculations, nothing like this will happen. You understand that the report will be just for show, but you need to write in a victorious style so that there are no questions, they say, why do you have so many problems, did you really work badly. In general, a report is being written that when a meteorite falls, we have everything to eliminate the consequences, we are great, everything is fine. And you concentrate on tasks that are real - we don’t have enough strength anyway.

これを比較してみると、「隕石攻撃」は単にロシア隕石が降ってくるという話ではなく、「刑務所隕石が降ってくるような攻撃を含めた諸々の条件において、人権が守られる可能性」を算出せよ、という話だったというのが正しい理解であると思われます

日本語に意訳するならばこんな感じでしょうか。何故この文脈で急に人権が出てくるのか謎ですし、(conditionally)のあたりもうまく訳せませんが…。

一例を挙げる—故事に言う杞憂のようなものも含め、諸々の攻撃に対する我々の備えの確率を算出せよ、との指示が下る。杞憂のようなものって具体的には何ですか、と尋ねてみれば、それはあくまで念には念を入れろということで、実際にこんなことが起こるというものではない、と言われる。それなら、なるほどこの報告は見せもので、ただ我々は勝ち誇ったように、問題など何も無い、という論調にする必要があり、そうでなければ「仕事ができていない」と詰問されるんだな、と理解する。したがって、報告書結論は、たとえ天が落ちてこようが我々には対抗手段が揃っている、大したことなどない、ということになる。そうしておいて、我々は現実に起きている問題のほうに集中する-どのみち我々の手には余る話なのだし。

2022-03-15

挨拶しないちんこ

大卒地方中小企業管理職恋愛経験ゼロ童貞アラサー

恋愛をしないまま、仕事ばかりしているとこの歳になってしまった。

三十代にもなると、地方ということもあり結婚の流れが早いのだろう、脚色抜きで自分以外の同年代はみな結婚をしている。

職場での人間関係は良好だと思うが、周囲から度々「最近ソッチはどうなのよ?」というピンク色を帯びたジャブをもらうこともあり、未だに独身を貫いている俺が奇異の視線で見られていることは明らかだ。

童貞だとは言っていない。あまりに衝撃が強すぎるからだ。

もはや俺は彼らにとって、空想上の生物と言って差し支えないだろう。

ヒトは三十にもなって女性器に自らの男根を挿入し腰を振る儀式を終えていないホモサピエンスをヒトだと認識できない。仕方の無いことだ。俺には性欲がない。これも仕方の無いことだ。

全く以て、どうしようもない。

自分には性欲がないのだと打ち明けると、周囲からはよく「俺には感情が無い」と額に手を当て嘯く中学生のようだと笑われたが、事実ないのだからどうしようもない。うんこは臭くて厄介だが、かと言って「明日からフローラルに頑張ります」とはならないのと同じである先天的に性欲がないのか、あるいは非モテとして過ごしてきた惨めな三十年間を説明するため、無意識のうちに「無かった」ことにしたのかは明らかではない。ただ、少なくとも今の俺に性欲がない以上、恋愛結婚も何処までも遠くままならない。誰かが言った。すべての恋愛セックスに通ずる。そうかもしれない。専らのトレンド不純異性交遊だ。性器結合主義を信奉する若者にとって、セックスとは性器を通した精神交流である

コンニチワ、とちんこが言う。

I'm fine.とまんこが言う。

ハウアバウチューとちんこが膣を探り、エンヂュー?で挿入。

これでfinishだ。あとは腰を振るだけでいい。俺は童貞なので分からないが、きっと挿入とは麻雀立直をした感覚に近いのだろう。責任思考放棄して快楽を待ち続ける時間はさぞかし幸福に違いない。もっとも、放銃による快楽の機会均等の観点からすると、セックスの方が麻雀よりよっぽど平等に思えるが。

ともかく、俺はそのいずれにも参加できない。俺のちんこはコンニチワが言えない。挨拶をしないちんこ非常識だ。それが分かっているので俺はちんこを表に出さないし、これまで鍵っ子のように下着なかに閉じ込めていた。

けれども、そうこう言えない状況になってきている。地方は恐ろしい。結婚していることが出世の条件だとは思いもよらなかった。少なくとも俺の職場では、婚姻がその人の信頼性担保しているようだった。そろそろしっかりしたらどうだと上司に言われ、同じ文脈で家庭の話になる。守りたい人がいるから仕事にも一層気持ちが入るのだと精神論が語られる。恐らく正しいのだろう、大多数の人々にとっては。しかし俺はそうではない。俺のちんこあなたちんこと違ってコンニチワが言えない。挨拶する相手もいないし、いても挨拶ができない。俺には性欲がないからだ。

おい、このフレーズ何回目だ? この問答を繰り返すことに何の意味がある?

俺は選択を迫られている。婚姻転職かの二択だ。どちらを選んでも環境は変わるし、どちらも選ばないのもまた選択の一つだ。なかなか難しい状況だと思う。あなたにはきっと理解できない。俺にも理解できないのだから

あるいは、俺たちの断絶はこういう風にも表せる。

あなたカーナビで、俺は絶対に曲がれないドライバーなのだ

あなた左折提案する。それが最短距離からだ。俺は曲がらない。あなたは次の角で左折を指示する。俺は曲がらない。あなたは徐々に苛立ち、声を荒げる。俺は曲がらない。あなたは呆れて「理解できません」と言う。俺もまったくの同意見だ。こっちが曲がれないと言っているのに、曲がれと指示するカーナビが何処にある?

そうして車内は静かになり、俺は助手席に誰も乗せていない気楽な軽を走らせて、どこまでも真っ直ぐ走り抜けていく。

恐らくもうブレーキは利かないのだろう。壁は目の前に迫っている。

2022-02-22

「いんむ」でググる台湾HP出てくる

179.飲務員在調製飲料過程中,不用量酒器來量製,直接倒入的 ...https://yamol.tw › item-179.飲務員在...

飲務員在調製飲料過程中,不用量酒器來量製,直接倒入的方式稱之為 (A)Fine Pour (B)Easy

2022-02-05

英単語はコアイメージで覚えろって言うけどさ

fine名詞だと罰金になるのイメージ崩壊だろ 形容詞と違い過ぎて

2021-11-11

Religion is like a penis. It's fine to have one and it's fine to be proud of it, but please don't whip it out in public and start waving it around... and PLEASE don't try to shove it down my child's throat.

という文章が以前ネットで話題になっていたが、逆に言えば、性的話題についてTPOを考えるというのは、「政治宗教話題は避ける」というのと同程度のマナーなんだよな。

少なくともヘイトスピーチニセ科学と同等のものでは無いし、そのようにスティグマ化することは、政治信条信仰に対する差別と同程度に許されてはいけないものなんだよな。


まあ中には、過激政治活動家や宗教家がいるように、過激チキンレースを好むオタクもいるだろうが、それを含めての「表現の自由」ではある。そこまで議論を後退させたとしても、ヘイトスピーチニセ科学とは到底並ばない。

そして少なくとも宇崎ちゃん献血ポスターや、戸定梨香の交通安全動画程度のものは、ごく普通ジェンダーエクスプレッションであって、「チキンレース」でもなんでもない。

2021-08-28

フリーゲームの思い出

なんとなく思い出して書きたくなった。ブログとか持っていないのでここに書く。

2000年頃に不登校になって、家にあったパソコンにかじりついていたんだけど、インターネットが繋がっていなかったので、パソコン雑誌に付いていたCD掲載されているフリーゲームをよく遊んでいた。

だいたい2000~2005年ぐらいまで遊んでいて、2006年ぐらい、ニコニコ動画が始まったあたりでフェードアウトしていったって感じ。10年ぐらい前からフリーゲームについてはさっぱりわからない。

インターネットが繋がってからフリーゲームを探すのに見ていたサイト2chまとめサイトサニーガール夢現で、前者2つはだいぶ前に無くなっていて、夢現は今見ると結構テイストが変わっている。

覚えている限りの良かったゲームを挙げる

RPG

アンディーメンテの「スターダンス」、「怪盗プリンス」、「アールエス

ダンジョン探索系だと「ネフェシエル

3D系だと「ヘイサクエスト」、「Cresteaju」

ほとんどツクールの素材だけで作ったような作品だと「盗人講座」、「Fantasy War」、「Holy Knights-忘れられた手紙

タイトル忘れたけど、ツクールで賞を取った、架空江戸時代舞台とした作品も印象的だった。

後期に遊んだものだと「ひよこ侍」、「セラフィックブルー」、「魔王物語物語」、「夜明けの口笛吹き」が印象的。

ツクール95作品ほとんど遊んだことは無いんだけど「REAL LOVE OVER LIE」は印象的だった。ただ、1・2どちらを遊んだのかが覚えていない。

アクション

「ぷちわらの冒険

3Dだと「きゅうり作戦」、「巫女さんのミラクルボード

海外作品で「Door Kickers」みたいな見下ろし型の作品があって良かったんだけどタイトルを忘れた。

ADV

御茶ノ水電子製作所の「second Anopheles」、「Duolith」、「LONGESTCAPERUNNER」

コミックメーカー製だと「碧の黙示録」、「MANSION OF THE FEAR」、「TRUE REMEMBRANCE」

林檎通信の「最後の夏」、「Does Anybody Really Know What Time It Is?」、「A Fine and Private Place(体験版)」

「ひとかた」、「時の館」、「Collage」、「シルフェイド見聞録」、「ゾウディアック1・2」

「消火栓」、「茜街奇譚」、「終末によせて」、「グッバイトゥユー」

クイーンオセロットの「Mental Mutant」、「夜の声」、「ルーカス

ワードワードの「黒」、「家族の肖像」、「死線」、「アメリカ物語

タイピングゲームの「魔王復活阻止ゲーム

ブラウザゲームだと「ANATHEMA」

天国へ!!」、あと夏にオフ会するADVがあったんだけどタイトルを忘れた。この2つはふざけた感じなんだけど、いかにもフリーゲームって感じで今でも印象的な作品

かにも、千と千尋タイトルをもじった作品で、内容も似たよう感じなんだけどすごい不気味な作品でこれもタイトルを忘れてしまった。

STG

TEST SHOOTING2 METEOR」、「Warning Forever」、「機動打者サンカンオー」、「超連射68K」、「スペースクウィーン

シミュレーション

アンディーメンテの「自給自足」、「ミサ

クイーンオセロットの「ソフィア壱」、「ソフィア弐」

その他

ブロック崩し系だと「スマッシュセット」、タイトル忘れたけど重力がかかったやつ。

フリーゲームじゃないけどひぐらし1話Vector無料公開されて、たしかその時はひぐらしの3話か4話が出たときで、そこからひぐらしを追い出して、うみねこが終わる2010年までリアルタイムで追えることができて本当にいい経験だった。

洞窟物語もよかったんだけど完成度が高すぎて上記に挙げた作品とはなんか空気感が違う。

なんにせよ一番影響を受けたのは間違いなくアンディーメンテで、こんなゲーム作ってみたいと思ってプログラミングを始めて、今はゲームプログラマになった。

2021-07-23

日本一ソフトウェア絶対に許さない。死んでも許さない。(追記)(再追記

オリジナル日本語版が出て時間が経ってからリリースから流出避けのために資料を絞ってるわけではないだろうになぜこんなに誤訳が多い……

引用はすべてスーパーダンガンロンパ2とdanganronpa2より)

軽微な事柄

「(前略)必要以上に勢い良くボタンを叩いた。」

"(前略)vigorously slammed the button more times than he needed to."

砂漠オアシスのようなさわやかな誤訳しか日本一ソフトウェアが免罪されるわけではない。

良くない

「斬新なローションプレイだね!じゃ、脱いでおいたほうがいいかな?」

"Ooooh, fresh coconut lotion! Would it be better if I take off my clothes first?"

ココナッツの汁をローションとして使うことが斬新だと言ってるのに英語版ではココナッツ汁が新鮮ということになっている。

かに採りたて新鮮だがそういうことを言ってるんじゃない。

*******

「嫌な手だな…」

"I wouldn't want to get punched by those hands..."

彼の言葉は手に対するものに見えるが実質は直前の相手発言への呆れというかツッコミというかだろう。

しか英語版ではその発言同意or黙認していることになり意味が違ってくる。

*******

「ほら、醜い顔だよね… 」

"Look, he has such a horrible expression on his face, don'tcha think...?"

心をぞわぞわさせるどぎつくて悪意あるセリフがごく普通描写になっている。

直訳してくれてればよかったのに。

*******

「チッ、細かいヤローだ…!」

"Tch! Nosy bitch...!"

かいヤロー呼ばわりされているのは彼の会話相手(男)でありbitch(女)ではない。

かに女子話題は出てくるが、このシーンで細かいといえるとしたら男の方である

追記2021/7/24/

  • bitchは男にも使うという指摘がいくつかあるが、

 この二つによりこのbitchはほぼ間違いなく話題に出た女キャラを指すと思われているだろう。

 ちなみにbitchは性的意味を含まないことが多いのは知っている。というかこのゲーム内でのbitchはすべてただのクソ女か意味のない悪態として使われていた。

追記終わり

*******

『けど…全国から優秀な学生だけを集めた学園なんだろ?』

"But...it's an academy that recruits only exceptional students from around the world, right?"

辞書を引かないのだろうか。

全体的に日本語がよくわかっていない訳が多い。

ひどい


「おいっ、何をしているっ!」「やめろっ!!」

"What the hell!? What going on here!?" "Th-This is...!"

有能で状況を正しく把握していた彼だが英語版ではとろい間抜け

********

「なんだよ…オメーもあの窓が気になんのか?」

"What...? Are you still thinkin' about that window?"

なにをどうやったらこんな訳になってしまうのか見当もつかない。

*******

「なんだぁ…使えない…」

"Aww...how useless..."

原文は話し相手無能呼ばわりしているが、英語版ではそれ(物)は壊れているか使用できないという意味のようだ。

意味も印象も全然違う。

*******

「このふとどき者っ!わたくしはそんなに膝の軽い女ではありません!」

"Imbecile! I am not some woman with flexible legs!"

「惜しい!もう少し上です。」

"O-O-Of course you're not! You're much classier than

that."

「けど…速く走れそうだな。」

"With legs like those, I could prolly do the splits real easy."

英語版はflexible legsなるドンピシャ言い回しがありながら活用(ancleでもhipでもいいだろうに)しないでつまらない訳をあてた。

二つ目セリフ発言者の表情も合ってない。

*******

「目覚めたぞ!」

"I have awoken!"

クラスメイト変態化を目撃した驚きが英語版では起床報告になっている。

本筋と関係ないのが救い。

*******

「わからないんだったらいいよ…わからないまま終わればいいよ…」

"It's fine if you don't understand... You can just see the end without knowing."

危うく見逃すところだった。感じたモヤモヤに従って立ち止まってみてよかった。

日本語版では「謎が解けないまま終了」だが英語版では「終了することに気づかない」。

クソひどい

「ボクらは昔から、そういう風に教わってきたはずだよ。」

「直接的に言葉で言われなくたって、ボクらを取り巻く世界を見ればわかるよね。」

テレビネット新聞から垂れ流される“希望溢れるメッセージ”がそう言ってるもん…」

「勝てない人間も…頑張らない人間も…頑張っても勝てない人間も…」

「…等しく無価値クズなんだって。」

"For a long time, humans have been taught that if you try hard enough, you can accomplish anything."

"Even if we weren't told this directly, you'd know it just by looking at the world around us."

"The Internet, TV, and newspapers are overflowing with hopeful messages that say exactly that..."

"But people who can't win...people who don't try to win...people who try their best and still can't win..."

"...They are all worthless trash."

気づいた瞬間血の気が引いた、個人的に最低最悪の誤訳機械翻訳にかけてもこうはならない。

元の文章にありもしない"if you try hard enough, you can accomplish anything"と"But"を入れようとした時点でおかしいと思わなかったのだろうか。

また英語版だと彼は"Internet, TV, and newspapers"に賛同していないことになるが、それなら"hopeful messages"と形容するのは不可解だと気づいてくれよ。

たとえ皮肉反語でもそれは言わないだろう。

訳者は単純に読み違えたのか勝手自分主義主張を入れ込んだのか。

個人的には中間をとって、先入観に惑わされて誤読したのだろうと思っている。

かに英語版敵役とかちょっと厨二かひねくれもの主人公とかライバルが言いそうな、または苦い現実を地道に描くような物語によく出てきそうな言葉だ。

でも彼はそうじゃない。

彼を、ちょっと幼げで熱情的で小物っぽい狂信者を表したセリフをよくもこんな訳にしてくれたものだ。

*******

「たとえば、夜の社交場で朝まで青春謳歌した帰りに、

通勤学者と逆に歩く自分に酔うような気分っす!」

"It's like the smug feeling you get when you explain something

with an elaborate metaphor no one understands!"

これで済むならこの世に警察翻訳家はいらない。

同時通訳者の逸話で、どこかに招かれてスピーチした人が日本語に訳しにくいジョークを言ったとき

「この方は面白いジョークを言いました。みなさん笑ってください」と言って

その場を丸く収めたという話を思い出すが、ゲーム訳者は客に笑えと頼む仕事ではない。

かに英語版もどことな彼女がいいそうなセリフだが日本一ソフトウェアの罪が軽くなるわけではない。

 ******

「オメーがオレを殴んだよ。」

"You're going to punch yourself."

だってお前…いつも俺を信じてなかったろ?」

"I mean...you always believed in me, didn't you?"

良いシーンで誤訳。二つも誤訳。どうしてそうなるのか意味不明すぎて恐怖すら感じる誤訳

おまけ

詳細は伏せるが日本語版ではあるキャラの口調が一時変わる。それはいいけど英語版微妙追従してるのが困る。

英語に口調の違いなどほとんどないのに無駄に一部だけ変更してるから違和感しかない。誤字脱字だと思った人が多いだろうなあ、あれ。

ささいなことだとは思ったがここはあえて日本語版に背きその変更は削っていつもと同じ口調にしてもらった。

*******

「そうか? 栄養ドリンクに見えなくもないけど…」

"Really? It looks like some kind of dietary supplement to me...Protein powder, maybe...?"

ぷっwwぷろていんwww

リアルで吹いた訳。その人がプロテインなんて持ってると思ったか

ここで出てくるのは茶色で小さめの瓶。彼にはオロナミンcデカビタのようなものに見えたのだろう。

しかし他の人に尋ねたところ、海外にはそのような容器に入ったエナドリはないらしいかプロテインにされてても仕方がない。

ちなみにこの訳の違いによる実害はない。

*******

田中セリフはなぜか軒並み高品質だった。ソニアほとんどのネタ再現されていないのと鮮やかなコントラストを成していた。

*******

左右田の口癖は「メンドクセー」というものだが、残念なことに英語版ではこれが毎回違う単語で訳されており口癖になっていない。

彼が手間や時間がかかる作業についてそう表現したことは一度(あいまいなのを含めれば二度)しかない。

あとは全て、怖い・不安という気持ちときにのみメンドクセーと言っている。

臆病だったり地味に泥臭くこつこつ努力したりする左右田が恐怖を面倒という言葉に変えることでのんきで軽薄なパリピを装っている描写だと思っている。

これが好きなので英語版でも再現して欲しかった。

ちなみに、一度だけの純粋に手間がかかることをメンドクセーと呼ぶシーンは

みんなの手間を省こうと努力して成功したがそれでも手間が残ってしまったとき

「メンドクセーけどヨロシク(意訳)」だからむしろ上の思いを強化している。

*******

友達と仲間はそこそこ区別して使われているが英語版では全てfriendになっている。

なんとかしようと思ったが仲間をうまく表せる言葉英語にはないようだ。

他の人に聞いたところそこの言語には仲間にあたる言葉があるようで一度は喜んだ……が

実際のところとあるきっかからその言葉は廃れて今ではほぼ皮肉しか使われないと言われ不意に

歴史自分卑近物事に直結した音を聞いた。

最後

  1. これで全部ではない。
  2. 一番許せないのは自分自身だ。絶対に許さない。死んでも許さない。

追記2021/7/24/

 日本語解釈は怪しくても英文破綻なくきれい

 その人はゴッド・オブ・ウォーに戻しておいたそうだ。

  • 例えば通貨として円が出てきたり、もっとマトモなこと言えよの意味で「日本語通じない」などというシーンがある。

 それを英語版では円をそのままドルだったり"you don't speak English"だったりして違和感しかない。

 ありがたいことに他の人はこれもyenに直したり"Don't you understand in human terms?"という意味の訳文にしたりしてくれた。

2021-05-19

冴えない彼女の育てかたfine見たんだが

やっぱり俺はこの作者と合わん

原作からアニメまで楽しんでみてたけど、なんかやっぱり合わん、最後腑に落ちない

この作者の代表作と言われてるWA2も大学生活入ったところで止まってるし

ログイン ユーザー登録
ようこそ ゲスト さん