はてなキーワード: fineとは
10年くらい前、法学部を卒業し「学士(法学)(Bachelor of Law)」を得た。2年間の休学を挟んだので6年かかった。
修学自体は極めて順調だったので3年次までにほぼ単位は取り終えた。就活だるいし逃げるか〜人生の夏休みって今っしょ?とカジュアルに休学して遊び呆けたら2年経っていた。休学費用はタダだった。
ちなみに奨学金(学生支援機構)は休学中は支給停止されるが復学したらちゃんと支給再開してくれる。
何年か前、働きながら放送大学を卒業し「学士(教養)(Bachelor of Arts)」を得た。学士入学(3年次編入)したので最短2年で済むのだが4年かかった。
放送大学には社会と産業コース、情報コースなど現在6つのコースがあるが、すべて教養学部所属で学士(教養)だ。全コースを卒業すると「名誉学生」として表彰される制度がある。特典は改悪されショボい。
現在の放送大学は単位認定試験が会場でのリアル受験からWeb受験に切り替わったため格段に社会人に優しくなった(リアル受験も可能)。コロナ情勢に左右される一時的なものではなく恒常的な変更だ。オススメ。
ちなみに奨学金は社会人学生(科目履修生や聴講生ではない正科生のみ)になると返済猶予できる。返済総額は変わらない単なる先送りだが、手元の現金は最強だし投資してもいい。以前は社会人学生を続ける限り無限に猶予できるガバ制度だっだが改悪されその時点から最長10年間のみとなった。
さてlawとartsを修めたし次はscienceと行きたかったが残念なことに通信制の理系大学は壊滅状態だ。
学士(IT総合学)、学士(情報マネジメント)、学士(経営情報学)みたいなエセ理系(超失礼)はいくつかある中で、ザ・理系感があるのは帝京大学理工学部情報科学科の「学士(工学)(Bachelor of Engineering)」が唯一の存在である。
愛知産業大学は建築学科だが造形学部所属のため学士(芸術)となる。
放送大学含め上記大学の中から理数系単位をかき集めて大学改革支援・学位授与機構で学位(理学)などを得る方法もあるがちょっとハードルが高いな。卒業さえすればいい帝京大学が無難と言える。
ところで大学に編入学する際の単位認定にはザックリ2種類ある。
・個別認定:過去の履修科目の中でカリキュラム上と同等の科目を個別に認定。「あなたは過去に"コンピュータ科学"を履修してるからうちの専門科目"情報基礎"の2単位を認定するよ」出身専攻が違うと認定数も少ない。
放送大学のような教養系の大学だと卒業要件全体で一括認定されて大卒3年次編入は62単位認定のようなスタートダッシュになる。
帝京大学のような教養科目+専門科目だと前者は一括認定されるが文系出身なら個別認定が少なく専門科目はゼロスタートのようなものだ。先は長い。自分にコンピュータサイエンスの適性があるかもわからない。
というわけで逃げを打つ。資格合格による履修免除システムだ。入学前に資格を掻き集めて負担軽減する作戦。
入学後の合格でも申請で免除なのだが単位試験と資格試験の二兎を追うより入学前の方が気楽だろう。でも履修免除すると成績表上の評価がSABCでなくN(認定)になるらしい。うーんこれは…GPA的にどうなんだ…
以下の資格に合格している場合は、履修が免除される科目があります。
ITパスポート、基本情報技術者、応用情報技術者、データベーススペシャリスト、 ネットワークスペシャリスト、ドットコムマスター(アドバンス)、CGエンジニア検定(ベーシック・エキスパート)、陸上無線技術士、電気通信主任技術者(伝送交換)、(電気通信に関する)工事担任者
試験日程の自由が利くCBT受験で基本情報、工事担任者(2級アナログ通信、2級デジタル通信)に合格。関係ないけど電気工事士2種に合格。
電通主任の4月21日申込締切を失念してしまい悔しい。難関だから科目免除できる1陸特や工事担任者総合種を先に取るのがセオリーらしいから傷は浅い。ドットコムマスター、下級の陸上無線特殊技術士もCBTなので合間を見て受験したい。今気付いたけど履修免除科目がダブってると取っても意味ない資格もあるのでは?確認していなかった…
先の話すぎて鬼が大爆笑だが、学士(工学)を取れたら次は慶應通信で学士(哲学)かどこかの美大通信で学士(芸術)にでも挑戦してみたい。
後者はBachelor of Fine Artsだから学士(教養)のBachelor of Artsと並べて収まりが良さそうくらいの理由。
前者は実は帝京を考える前の本命だった。学歴コンプはあるのでいずれ慶應で上書きしたい。所詮は通信だが。コロナ最盛期は単位認定試験が中止になりレポート代替となる単位ボーナスステージだったのだが、決心がつかず指咥えて眺めてるうちに試験形式に戻ってしまった。
単位試験は難関らしいし(全体的に不親切ともいう)卒論もある。実は今まで卒論を含め論文自体を書いたことがない。下手したら卒業に10年かかってしまう。
それで尻込みして完全な趣味よりもまだ仕事(メーカー技術職)に関連のある学士(工学)を先に選んだというわけだ。
学士ばっか集めてないで修士に挑戦しろと自分でも思うが、そもそも勉強したいが研究したいわけではない。研究テーマとか何も考えられない。与えられたカリキュラムに沿って学問を修めた気になりたいだけだ。学位や資格のような証がないと勉強にも身が入らない。自分でもその怠惰さはわかっている。
上記理由で修論にもビビりまくり。働きながらの修学もキツそうだ。夜勤もするシフト勤務だから夜間通学もできないので通信制頼りとなる。
単に教科書を読むだけより問いかけられたほうが脳が考えようとするし能動的に学習できる。
プロンプト:「ChatGPTの仕組み」の包括的な理解が得られる文章を、クイズ番組の司会風に書いてください。クイズは5問ほど出題してください。それぞれの問題の後に答えと解説を発表してください。
出力:
皆さんこんにちは!今日は特別なクイズ番組にようこそ!私たちはあなたに、OpenAIが開発した驚くべき技術、ChatGPTの仕組みについての包括的な理解を得るためのクイズを出題します。さあ、問題を出題していきましょう!
問題1: ChatGPTの基本となるAIアーキテクチャは何でしょうか?
答え: GPT-4
解説: ChatGPTは、OpenAIが開発したGPT-4(Generative Pre-trained Transformer 4)というアーキテクチャを基盤としています。GPT-4は、自然言語処理タスクに優れた性能を発揮することで知られています。
問題2: GPT-4はどのような学習手法で訓練されていますか?
答え: 事前学習(pre-training)と事後学習(fine-tuning)
解説: GPT-4は、2段階の学習プロセスで訓練されています。最初の段階は事前学習で、大量のテキストデータから言語モデルを学習します。次の段階は事後学習で、特定のタスクに適した性能を発揮するようにモデルを微調整します。
問題3: ChatGPTが生成するテキストの品質を向上させるために用いられる技術は何でしょうか?
解説: ビームサーチは、生成されるテキストの品質を向上させるために用いられる探索アルゴリズムです。複数の候補を同時に生成し、最も尤もらしい文を選択することで、より自然で正確なテキストを生成することが可能になります。
問題4: GPT-4が生成するテキストにおいて、長い文章を生成する際に問題となる要因は何でしょうか?
答え: 文脈の長さ(Context Length)
解説: GPT-4は、一度に扱える文脈の長さに制約があります。この制約により、長い文章を生成する際に、以前の文脈が失われることがあり、それが結果として文章の一貫性や理解度に影響を与えることがあります。
問題5: ChatGPTが生成する回答が間違った情報を含む可能性がある理由は何でしょうか?
答え: 学習データに含まれる誤った情報とモデルの生成性能の限界
解説: ChatGPTが間違った情報を含む回答を生成する理由は主に2つあります。まず、学習データに含まれる誤った情報が原因となることがあります。学習データが不正確であると、モデルもそれを学習し、間違った回答を生成することがあります。また、GPT-4は生成モデルであるため、正確な情報が学習データに含まれていても、生成時に限界があり、正確性が犠牲になることがあります。
以上、5問のクイズでした!皆さんはChatGPTの仕組みについての理解を深めることができましたか?今回のクイズで学んだ知識をぜひ活用して、この驚くべき技術とその可能性についてさらに学んでいってくださいね!それでは、また次回のクイズでお会いしましょう!
前回紹介したAnythingv3を投稿者が削除したり関係の無い第三者がAnythingv4や4.5を勝手にリリースしたり…(しかもマージモデルだとか)
増田も追いかけきれていないが追いかけてるぶんは自分のためにここでまとめておく。
NAIリークモデルやAnythingv3に関しては前回を参照。
Instagramで投稿されている画像を学習させたモデルの総称。
実在の人物画像を学習しているため人物の体型をより正確に描画させることができる。
cafe-instagramやzeipher-f222など複数存在し、Basil_Mixのようなアジア人に特化したものも存在する。
U-NETの階層ごとにマージを行う階層マージというマージ手法が考案されたからだ。
これにより実写モデルをベースに見た目をアニメ風にマージするという方法が採れるようになった。
5chなんU(なんJもしくはなんGのパートスレ向けの板でVIPに対するパー速のような板)の住民が作成した階層マージモデル。
現在はBasil_MixとAnythingv3を階層マージしている。
このモデルには派生版があり、nsfw版やhard版は上記マージモデル(通称base)にNAIリークモデルやGape60を混ぜたものらしい。
Gapeについては前回の記事を参照。
NAIのように長いネガティブプロンプトを設定しなくても綺麗な絵を出すことができる。
リアルよりになったAbyssOrangeMixを漫画アニメ向けにファインチューンしたモデル。
Abyss→深界七層(メイドインアビス)→7th_layerということらしい。
アニメ寄りなA、漫画寄りなB、より漫画寄りで破綻しやすいCの三種類がある。
Anything系のような中華で好まれる独特の厚塗りではなく比較的パキっとした塗りの絵が出るので個人的には一番好き。
他にもいろんなマージモデルがあるが、だいたいがNAIリークモデルやAnythingv3と実写系モデルを混ぜたりそれにファインチューンをかけたりしたモデルだ。
Anythingv3もNAIリークモデルがベースだからなんだかんだいってNovelAIが作ったモデルはまさに特異点的な存在なのだろう。
Low-rank Adaptation for Fast Text-to-Image Diffusion Fine-tuningの略で、
Dreamboothの簡易版のようなものとされているが実はDBとは似て非なる技術らしい。
DBよりも短い時間かつ省メモリの環境で学習が可能で、生成されるファイルも30~200MB程度とHypernetworkとそこまで変わらず一定以上のクォリティで追加学習を行えるようになった。
何よりもVRAMが8GB程度のグラボでも学習できるようになったのが大きい。
特定の作者の画像を学習させることでその画風を再現するためのLoRA。
従来はHypernetworkで行っていた。
特定のものやこと(例:ふたなり)を学習させるためのLoRA。
NovelAIやその派生モデルでは困難だった種付けプレスや断面図などの構図の再現が可能となった。
従来は主にDBで行っておりモデルの配布に苦労していたがLoRAによって配布が非常に楽になった。
「士郎正宗風の絵柄でふたなりのナンジャモ」という画像を生成することもできる。
またLoRAはHypernetworkのようにモデルを選ばないが、NAIリークモデルを学習のベースにすると破綻しづらいらしい。
というか今流行っているモデルはほぼNAIリークモデルの血筋が入っているので馴染みやすいんだろう。
同社が運営しているHuggingFace HUBはユーザ登録すれば無料で無限にAI学習モデル(1ファイル2GB~7GB)をアップロードできる上回線も異常に高速であるため重宝されている。
モデルマージなどでストレージが圧迫されているローカル民にとっては救世主のような存在。
資金源は謎だが、2022年の5月に2億ドル調達しているのでストレージを無尽蔵に増やせるらしい。知らんけど。
HuggingFaceが考案したモデルファイルのファイル形式。
実行コードを含んでいることもあり従来のckptモデルはしょっちゅうトロイの誤検出が起きていたが、
SAFETENSOR形式のモデルは実行コードを含まないため安全であるとされる。
「Cural Health」や「Drexel’s University」「Nabla」など、各所でGPT-3の検証がなされているので、今後 医療現場でGPTが使われるようになる可能性を聞いてみた。
Me:
あなたはどのように実装されたの? Deep Learning?
GPT:
はい、私はDeep Learningによって実装されました。特に、Transformerと呼ばれるアルゴリズムを使用して学習されました。これは大量のテキストデータを学習し、自然言語処理タスクに適用することができるように設計されています。
Me:
もっと詳しく。
GPT:
Transformerは、自然言語処理タスクのためのDeep Learningアルゴリズムです。それは、大量のテキストデータを学習し、それを解釈し、理解することができるようになります。 Transformerは、複数の層からなるニューラルネットワークを使用して、テキストを処理します。それは、大量のデータを効率的に処理するために、Attention機構を使用します。これは、特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。Transformerは、自然言語処理タスクにおいて非常に成功しています。それは、自然言語の翻訳、文章の解釈、質問応答などのタスクに適用されており、高い精度を発揮しています。私はTransformerを使用して学習され、自然言語処理タスクに適用することができます。
Me:
事前訓練とかしているんだよね?
GPT:
はい、私は事前学習を受けています。事前学習とは、大量のテキストデータを使用して、言語モデルを学習することを指します。これは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。事前学習は、言語モデルのパフォーマンスを大幅に改善することができます。それは、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるためです。私は、大量のオンラインテキストデータを使用して学習され、それを解釈し、理解することができるようになりました。それは、自然言語処理タスクに対して高い精度を発揮することができます。
Me:
今のパラメータはいくつ? 前のバージョンよりどのくらい精度がよくなった?
GPT:
私の現在のパラメータ数は、数百億から数千億となっています。これは、大量のデータを使用して学習し、高い精度を達成するために必要なパラメータ数です。精度は、バージョンによって異なりますが、一般的には、前のバージョンよりも高い精度が達成されています。これは、新しいアルゴリズムや技術の進歩によって、より良い結果が得られるようになってきているためです。また、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるため、精度が向上していることも見られます。
Me:
具体的なパラメータ数は? 前バージョンのGTP-2、現バージョンのGPT-3、次バージョンのGPT-4、それぞれ教えて。
GPT:
GPT-2は、1.5バイアレイパラメータを持っていました。それは、大量のテキストデータを使用して学習し、自然言語処理タスクに適用することができるようになっていました。GPT-3は、175バイアレイパラメータを持っています。これは、GPT-2よりも多くのパラメータを持っており、より高い精度を達成することができます。GPT-4はまだリリースされていないため、そのパラメータ数については確定していません。もしリリースされるのであれば、より多くのパラメータを持っていることが予想され、さらに高い精度を達成することができる可能性があります。
Me:
175バイアレイパラメータって何? 1750億パラメータの間違いでは?
GPT:
そうです、GPT-3は175バイアレイパラメータを持っています。それは1750億のパラメーターを持っていることを意味します。これは、大量のデータを使用して学習し、高い精度を達成するために必要なパラメータ数です。これは、現在の自然言語処理タスクに対して最も大きなモデルであり、高い精度を達成することができるため、市場においても高い評判を得ています。
Me:
バイアレイパラメータを英語で表現して。
GPT:
A "peta-parameter" or "Peta-parameter" (PT) is a measure of the capacity of a machine learning model, specifically the number of parameters it has. In the case of GPT-3 it has 175 peta-parameters, meaning it has 175 million billion parameters. These parameters help the model to understand and interpret large amounts of text data, allowing it to perform natural language processing tasks with high accuracy.
Me:
「175 billion parameters」の間違いでは?
GPT:
そうです、「175 billion parameters」の間違いでした。 GPT-3は175 billion parametersを持っています。それは、自然言語処理タスクに対して高い精度を発揮するために必要なパラメータ数です。申し訳ありませんでした。
Me:
GPT-3はどのように概念レベルの知識を持つの? Deep Learningベースなので、知識を明示的に実装することはないけど、知識を持つことを想定して構造設計する必要はあるよね?
GPT:
GPT-3は、大量のテキストデータを使用して学習されました。それによって、自然言語処理タスクに対して高い精度を発揮することができます。それは、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるためです。GPT-3は、大量のテキストデータから概念レベルの知識を学習します。それは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。 それは、単語や文章の関係性、文章の構造、文章の意味などを理解することができるようになります。GPT-3は、Deep Learningベースのモデルであり、知識を明示的に実装することはありませんが、大量のテキストデータから知識を学習することができるように構造設計されています。それは、Attention機構を使用して特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。
Me:
Attention機構について詳しく。
GPT:
Attention機構は、自然言語処理タスクにおいて重要な役割を担う機構です。それは、大量のテキストデータを処理するために使用され、特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。Attention機構は、Seq2Seqモデルなどの自然言語処理タスクに使用されています。それは、入力シーケンスから出力シーケンスを生成するために使用されます。Attention機構は、入力シーケンスのある部分に注目し、それに基づいて出力シーケンスを生成することができるようになります。Attention機構は、ニューラルネットワークの中で使用されます。それは、重み付けされた平均値を計算し、それに基づいて入力シーケンスから重要な部分を選択することができるようになります。GPT-3は、Attention機構を使用して、大量のテキストデータから概念レベルの知識を学習し、文章の意味を理解することができるようになります。
マジレスされてチビッた.こりゃGoogleさんもビビるわけだ.
ぼく:
How were you implemented? Is it deep learning-based?
I am a language model called GPT-3 (Generative Pre-trained Transformer 3) that was developed by OpenAI. It is a deep learning-based model that uses a type of neural network called a transformer, which was trained on a large dataset of text to learn patterns of language.
GPT-3 is trained using a technique called unsupervised learning, where the model is given a massive amount of text data and uses this data to learn patterns and relationships in the language. This allows GPT-3 to generate human-like text when given a prompt, and to understand and respond to natural language input.
The training process of GPT-3 involves a technique called pre-training, which means that the model is trained on a massive dataset before being fine-tuned on a smaller task-specific dataset. This pre-training allows GPT-3 to have a good general understanding of the language and to be able to adapt to specific tasks more easily.
The GPT-3 model has 175 billion parameters, which is one of the largest language models to date, making it able to generate very human-like text and to understand context in a very natural way.
ぼく:
How does GPT-3 have a knowledgebase like an ontology? As it is deep learning-based, the knowledgebase like an ontology would not be implemented explicitly, but the structure should be designed with an expectation of having such a knowledge about hierarchy of concepts.
GPT-3, like other deep learning models, does not have an explicit knowledgebase or ontology built into its structure. Instead, it has been trained on a large dataset of text, which allows it to learn patterns and relationships between concepts.
However, the training data that GPT-3 was exposed to, likely contains a wide range of concepts and hierarchical structures. As GPT-3 learns patterns in the data, it can begin to understand the relationships between different concepts and ideas, and how they are related to each other. This allows the model to generate text that is more coherent and semantically meaningful, making it possible to understand the context and hierarchy of concepts, but it does not have an explicit ontology like a knowledge graph.
It can be said that GPT-3 has a certain level of "implicit ontology", in the sense that it has learned the relationships between concepts in a way that is similar to how a knowledge graph or ontology organizes information. However, it's important to note that GPT-3's understanding of concepts and relationships is based on the patterns it has learned from the training data, which is not a structured and explicit knowledgebase like an ontology.
ぼく:
Then how does GPT-3 handle the long-term or short term memories? Can it remember information about the on-going chatting? My name is Masuda, can GPT-3 keep it in the memory? Furthermore, can it learn and understand the new information from the Q-A queries, and use it in the future queries?
GPT-3 handles long-term and short-term memories differently. When it generates text, it uses a technique called attention mechanism which allows the model to focus on certain parts of the input while generating the output. This allows GPT-3 to keep track of previous information and context when generating text, which can be thought of as a form of short-term memory.
Regarding the on-going chatting, GPT-3 can keep track of certain information, like the name you've provided, Masuda, during the conversation and use it in future responses. However, it's important to note that GPT-3 is a stateless model, which means that it doesn't have a permanent memory that it can refer to after a conversation ends.
Regarding learning from Q-A, GPT-3 is trained on a massive dataset of text, and it learns patterns and relationships between concepts from this data. It can generate text that is semantically meaningful and coherent, but it does not have the capability to learn new information from Q-A sessions and use it in future queries. However, OpenAI has developed another model called DALL-E, which uses GPT-3 and it is capable of learning from Q-A sessions and use it in future queries.
ぼく:
Is ChatGPT superior to the Google search? Previously people used Google to search for their questions. Now a days, ChatGPT can answer to those questions. What are pros and cons of ChatGPT over the Google search?
ChatGPT and Google search are different technologies with different capabilities and strengths.
Google search is a powerful web search engine that can quickly find relevant information from a vast amount of web pages and documents. It uses complex algorithms to rank and sort search results based on relevance, popularity, and other factors. Google search is very good at providing factual information and is an excellent tool for researching a wide range of topics.
ChatGPT, on the other hand, is a natural language processing model that can generate human-like text. It is trained on a large dataset of text and uses this knowledge to understand and respond to natural language input. ChatGPT can generate text that is more coherent and semantically meaningful than a simple information retrieval engine like Google search. ChatGPT can also be used to generate text that is more engaging and human-like, such as in chatbots and virtual assistants.
One of the main advantages of ChatGPT over Google search is its ability to understand and respond to natural language input in a more human-like way. ChatGPT can also generate text that is more coherent and semantically meaningful, which can be useful in many applications. However, Google search is better at providing factual information and searching for specific pieces of information.
Another disadvantage of ChatGPT is that it doesn't have the ability to retrieve information from the web, it can only generate text based on the patterns it has learned from the training data. That's why it's not a replacement for a web search engine like Google but it can be used as an additional tool to help people to find the information they are looking for.
In summary, ChatGPT and Google search have different strengths and capabilities. While Google search is better at providing factual information, ChatGPT is better at understanding and responding to natural language input in a more human-like way.
ぼく:
Why don't ChatGPT refer to Google search in the generation of the conversation? Google Assistant has such a function. Is the reason due to the fact that OpenAI is funded by Google?
ChatGPT is a language model that generates text based on the patterns it has learned from the training data. While it can understand and respond to natural language input in a human-like way, it does not have the capability to access external sources of information like Google search.
Google Assistant, on the other hand, is a virtual assistant that can access a wide range of information and services through the internet, including Google search. Google Assistant can use this information to provide more accurate and relevant responses to user queries.
The reason ChatGPT does not refer to Google search during the generation of the conversation is likely because it was not designed or trained to do so. Instead, it was designed to generate text based on the patterns it has learned from the training data, and it does not have the capability to access external sources of information.
It's worth noting that OpenAI and Google are separate organizations, even though Google is an investor in OpenAI, this doesn't necessarily mean that the two companies work together on their products and services. OpenAI has its own development team, goals and roadmap and they are independent from Google.
ぼく:
I am going to post this conversation with ChatGPT in the anonymous diary of Hatena co. What should I do for attracting people to get many bookmarks?
There are several things you can do to attract people and increase the chances of your conversation with ChatGPT getting many bookmarks on Hatena diary. Some suggestions include:
1. Make sure your conversation is well-written and easy to understand. Use clear and concise language, and consider formatting your text in a way that makes it easy to read.
2. Use relevant keywords and hashtags in your diary entry. This can help make your conversation more discoverable to people searching for related topics on Hatena diary.
3. Include images or videos in your diary entry. This can make your conversation more visually appealing and can help attract more readers.
4. Share your diary entry on social media or other platforms. This can help increase the visibility of your conversation and attract more readers.
5. Encourage readers to share their thoughts and opinions on your conversation by including a call to action or a question at the end of your diary entry.
6. Finally, you can also try to participate in the conversation on Hatena diary, by answering the questions, responding to the comments, and engaging with your readers.
It's important to remember that getting many bookmarks on a diary is not easy and it can take time and effort to build an audience. But by following these tips and being consistent with your diary entry, you will increase the chances of attracting more readers and getting more bookmarks.
ぼく:
中国他大陸ブローカーしか買えない様な現状のホビー宣伝とか空しくないのか?
https://twitter.com/BS11_Anime/status/1613105967436267520?t=xjIO1bnYKywyJZ4-k04tZw&s=19
あのさあ
日曜24:30に期待してたのか分かる?
放映10周年のたまこまーけっとや昨冬の3騎士の一角たるスローループ、
きららどころか超正統派のジェネきらすら保証されないザマの冬クールをさらに惨めにしてどうするんだよBS11とバンナムは。
こんな事してるからとりぐらふ氏から「今期マジでゴミすぎる」「サブカル界隈が事勿れ主義だから業界の役所天国みたいになって質より量みたいになる」とかドヤされるんだよ、分かる?
関連URL
https://twitter.com/torigraff/status/1612125564550406146?t=pL7oCwqO-xXefjjiCzczIQ&s=19
https://twitter.com/torigraff/status/1612125818268061699?t=2xu1FmTolSSfsEH1epYTxQ&s=19
問題はこれだけじゃねえよ。
サブカルマジョリティ的な作風・画風に侵食される一途を辿っている男女間ラブコメ界において久々のサブカルマイノリティ的な作風・画風作品であるお隣の天使様がBS日テレの土曜深夜24時に飛ばされた事だよ!
土曜深夜24時といったらMX・BS11幹事で深夜アニメ界の土6・日5枠ともいえるアニプレ土24が裏番組になってるんだぞ?
BS日テレの帯24時台なんか4Kサイマルやってくれない(4Kは通販)ため製作者にとって恐怖の地、アニメ界のシバルバーだよ。
その一方でサブカルマジョリティ属作ラブコメはこの直近数年間フルHDのBS11や4Kサイマルありの他BS局枠貰いやがってきた。
BS11編
宇崎ちゃん(ツイフェミ他強硬派左派被害者だからって絶対的な神秘化はしない。)、
長瀞さん、先うざ、久保さん、五等分2期、冴えカノfine、友崎くん、着せ恋
さらに酷いことはサブカルマイノリティ側ラブコメに属するニャル子さんの再放送の機会が厳しくなったことだよ、ある作曲家が馬鹿なことに手を染めたせいで。
こんな新作すし詰め状態で質より量みたいになる前にBS11はあの9ヶ月(21年4〜12月)で空き枠を有効活用するべきだったのにしなかった事がどれだけ愚かだったか!!
あの9ヶ月(21年4〜12月に主に空き枠で放送されてた再放送一覧)
シグルリ(アニプレオリジナルミリタリー系最弱)、神なた、デビルズライン、裏世界ピクニック
月24時はとくに惨め
ひぐらしのなく頃に蛇(3クール目である足の前哨戦)から始まり
たとえばラスダンの、スケートリーディング(毒魔さんからクソ認定されました)
↑
22年も悪夢の9ヶ月残党が残ってた。
無印完結編3話放送無しのシュタゲゼロ、セブンナイツ、そして全日に舞台を移してお境界戦機さま。
こんな傲慢な枠の使い方やりつづけてたらみんなテレビから離れてVTuberのゲーム・雑談生配信に行ってしまうの当たり前だろ!!
魔女の旅々見たかった人、バキの過去シリーズ見たかった人だっていたんだよ!
でもあんな酷い再放送ラインナップだったらみんなVTuber生配信にシフトするの当然の結果だよ!!
人によってはのんのんとゆるキャン終わってから久しぶりに見たアニメはきんモザ2期だったというケースもあるほどなんだぜ?
Stable diffusionがローカル環境やColabで簡単に動くから色々試してた。NSFWフィルタを回避して、呪文こねくり回して、特定の人物を描くために画像を集めてfine tuningをして、そこそこ良い感じの画像ができるようになってきたが急に飽きた。
生産性が低いせいだ。結局のところ静止画なので、表現できることは限られている。幾ら作っても実用性に欠ける。
そこで、あまり興味がなかったディープフェイクを調べてみたが、今ひとつだった。内容に限りがある。好きなように作れたら良いが、fine tuningみたいな作業は骨が折れるから、そこまでしてやりたくない。
と思っていた矢先、たった1枚の顔写真を元に動画の顔をすげ替える技術があり、オープンソースで公開されているのを見つけた。少ないが公開されている例を見るに、かなり精度が良いように見えた。
Colabですぐに触れるようになっていたので試したところ、どうやら万能というわけではなくコツが要るらしい。顔がほぼ正面で、かつ、顔がアップではない静止画および動画だと、出来が良かった。顔が相対的に小さくなるように四方に枠をつければ上手く認識された。
可能性を感じたが、Colabであれこれするのも良くないので、ローカルに環境を構築した。公開されている環境のtorchのバージョンが低く、手持ちのGPUとマッチしなかったため、ハマりまくったが何とかWSL2で環境を組めた。
メモリ32GB、RTX 3090の環境で、フルHDで1分の動画を生成するのに30秒程度かかる。時間がかかりすぎると思うかもしれないが、十分早い。スクリプトを書いて放置しとけば次々に出来るからだ。
あくまで個人利用をしていることを前提に結果を述べると、かなり実用性の高いものを生成できることはなかった。生成したものは全部削除した。本当に削除してHDDを破壊した。
この域に達してみて分かるのは、この手の技術は本当に危険だと言うことだ。たった1枚の顔写真でこんなことが可能なら、一般人であっても人前に顔を晒すのはリスクが高すぎる。
最近では1枚の画像から高解像度のアバターを生成する技術も登場しており、大変憂慮すべき事態であるため、今後もあくまで個人的に注視していきたい所存である。
LINDT & SPRÜNGLI
SINCE 1845
לינדט אקסלנס - שוקולד מריר
מעולה 70% מוצקי קקאו
מינימום מוצקי קקאו בשוקולד
מריר מעולה :70%
優れた苦味:70%
רכיביים: עוסת קקוא, סוכר, חמאת קקאות וניל.
עלול להכיל : חלב, סויה, זרעי שומשום,
אגוזים (לוז, שקד, קשיו, קוקוס, מלד, מלך,
מאקדמיה, פקאן, פיסטוק, צנובר)
ナッツ(ヘーゼルナッツ、アーモンド、カシューナッツ、ココナッツ、メラッド、キング、
היצרן: לינדט ושפרנגלי אס איי אס,
אולרון סנט מארי - אף. אר 64400,
צרפת
כשר חלבי - לאוכלי אבקת חלב נוכר
בהשגחת משולש K ארה"ב
ובאישור הרבנות הראשית לישראל
TriangleKUSAの監督下
סימון תזונתי ב - 100 גר' מוצר :
אנרגיה (קלוריוית ) 566
חלבונחים (גר') 9.5
פחמימות (גר') מתוכן: 34
סוכרים (גר') 29
סך השומנים (גר') 41
חומצות שומן ראוויות (גר') 24
חומצות שומן טראנס (גר') פחות מ -0.5
כולסטרול (גר') 1
נתרן (מ''ג) 39
砂糖(g)29
総脂肪(g)41
トランス脂肪酸(g)0.5未満
コレステロール(g)1
Extra fine dark chocolate 100g
Ingredients: cocoa mass, sugar, cocoa butter, vanilla.
May contain nuts, milk, soya, sesame seeds and hazelnuts.
Imported by: DKSH Singapore Pte Ltd, 47 Nalan Buroh #09-01, Singapore 619491.
יבואןף : משה ס'דס ובנו בע"מ, רח' היוצר 3ת באר יעקבץ
יש לשמור במקום קריר ויבש.
輸入業者:Moshe Sadesと彼の息子Ltd.、3 Hayotzer St.、Beer Yaakov
anond:20220520013638の中に書いてたけど文字数制限で省かれてしまったので別に載せる。せっかくの苦労を無駄にしたくない。
3月に書いた記事以降も、たくさん新しい単語を覚えてしまったので、前回のものも含めて網羅するつもりで紹介します。
と思ったらトラバ(anond:20220530232733)で指摘してもらった。知らんかった。
片仮名のモラルはmoral 道徳 morale は 士気
Приветствую всех и с добрым временем суток. Меня зовут Юра. Я из России. Это не моё настоящее имя, действую в целях анонимности, прошу любить и жаловать. В мире, как мы все знаем, 24 февраля началась и продолжается по сей день "Спецоперация на Украине". Воистину это ужасное событие, которое влечёт за собой тысячи и тысячи жертв с обеих сторон конфликта. Цель "Спецоперации на Украине" - Денацификация Украины. Если вам в новостных каналах и в средствах массовой информации говорят, что цель спецоперации - не денацификация - значит таковы новости, таковы их источники, ничего не поделать. Каково моё мнение на этот счёт? Начну с того, что лично я против любой войны. Для меня война - это зло, это насилие. И то, что всю Россию и россиян в целом считают агрессором и просто ужасными людьми - это плохо, потому что ужасные люди и аггресоры - это те люди, которые ведут себя подобным образом и хотят тем самым разжигать пламя войны ещё сильнее дабы получить с этого удовлетворение в виде ещё одного убийства, прощения со стороны жертв, которые молят о пощаде и прочего. В России и так находятся миллионы людей, которые категорически против войны и которые не хотят, чтобы их считали последними тварями только потому, что так всё получилось. У меня, например, есть несколько друзей с Украины, которые сейчас находятся там и переживают эти взрывы, бомбы, ракеты и всё остальное, что перечислять не хочу. Я продолжаю держать с ними контакт и мы, слава богу, не думаем обо всём этом и стараемся поддерживать друг друга благодаря весёлым мемам, смешным видео, просто хорошим новостям из разных индустрий, чтобы хоть как-то разрядиться. Ведь самое главное, самое главное - война не изменила наши умы потому, что мы знаем что война не должна быть тем препятствием, благодаря которому наша дружба должна рухнуть. За это я их и ценю. Что держатся и не падают духом даже в такие тяжёлые дни и не "ищут предателей среди своих друзей, только потому что они русские", так сказать. Конечно же, есть и обратные примеры, что с начала войны некоторые мои знакомые начали отстаивать свою позицию как русских, что украинцы не люди и вообще спецоперация всё сделает к лучшему, что "мы сравняем города с землёй" и "денацифируем всё"... К сожалению, с такими людьми уже и общаться стыдно, что уж говорить, всё очевидно. В моём городе, например, я пока не наблюдаю сильной пропаганды, что "мы должны верить в то, что мы следуем справедливой цели", что всё образуется именно так как надо. Ну, даже если пропаганда и существует у нас, то я её и не наблюдаю. Да и не хочу наблюдать, потому что, как мне кажется, такую информацию стоить игнорировать и жить дальше, следуя своей цели в жизни. Я никогда не считал себя патриотом своей страны. Это звучит странно, да, но и врать мне нет смысла в этом. Я родился в России - значит так должно было случиться. Тем более я б хотел, что бы один из моих друзей на Украине, вот как раз один из них, смог пережить эту войну и смог поиграть в ту же самую Kingdom Hearts 4, т.к. я его с этой серией игр и познакомил. Я бы очень хотел, чтобы он увидел продолжение данной серии игр, чтобы он смог это вё увидеть. Я очень на это надеюсь. Ведь я, он, и многие другие такие же обычные люди - ходим на работу, спим, едим, играем, отдыхаем. И также я просто хочу, чтобы те, кто слушает меня сейчас не считали всех русских и россиян плохими, потому что я в вас верю, абсолютно всех. И неважно какой вы расы, неважно какой религии верите, это неважно. Главное, что вы остаётесь теми людьми, в которых можно верить, на которых можно надеяться и которые продолжают думать о том, что всё будет хорошо. И даже если у кого-то есть силы на то, чтобы исправить эту всю ситуацию, у кого есть эти возможности - то они смогут это изменить к лучшему и всё сделать мирно, что очень очень важно для нас сейчас. Поэтому я верю в мир, который обязательно наступит. И он наступит именно таким, что украинцы, что русские смогут пожать руки и сказать, что "Всё. У нас будет мир, у нас будет всё." Спасибо за внимание.
Greetings to all and with a good time of day. My name is Yura. I'm from Russia. This is not my real name, I act for the purposes of anonymity, I ask you to love and favor. In the world, as we all know, on February 24, the "Special Operation in Ukraine" began and continues to this day. Truly, this is a terrible event that entails thousands and thousands of victims on both sides of the conflict. The purpose of the "Special Operation in Ukraine" is the Denazification of Ukraine. If you are told in the news channels and in the media that the purpose of the special operation is not denazification, then this is the news, these are their sources, nothing can be done. What is my opinion on this? To begin with, I personally am against any war. For me, war is evil, it is violence. And the fact that the whole of Russia and Russians as a whole are considered an aggressor and just terrible people is bad, because terrible people and aggressors are those people who behave in this way and thereby want to kindle the flames of war even more in order to get satisfaction from this in the form of another murder, forgiveness from the victims who beg for mercy and other things. There are already millions of people in Russia who are categorically against the war and who do not want to be considered the last creatures just because everything turned out that way. For example, I have several friends from Ukraine who are currently there and are experiencing these explosions, bombs, rockets and everything else that I do not want to list. I continue to keep in touch with them and, thank God, we don't think about all this and try to support each other through funny memes, funny videos, just good news from different industries to somehow discharge. After all, the most important thing, the most important thing is that the war has not changed our minds because we know that war should not be the obstacle through which our friendship should collapse. That's why I appreciate them. That they hold on and do not lose heart even in such difficult days and do not "look for traitors among their friends, just because they are Russians," so to speak. Of course, there are also reverse examples that since the beginning of the war, some of my friends have begun to defend their position as Russians, that Ukrainians are not people and in general the special operation will do everything for the better, that "we will level cities to the ground" and "denazify everything"... Unfortunately, it's already a shame to communicate with such people, what can I say, everything is obvious. In my city, for example, I have not yet observed strong propaganda that "we must believe that we are following a fair goal," that everything will work out exactly as it should. Well, even if propaganda exists here, I don't observe it. And I don't want to watch, because, as it seems to me, such information should be ignored and live on, following my goal in life. I have never considered myself a patriot of my country. It sounds strange, yes, but there's no point in lying to me about it. I was born in Russia - so it had to happen. Moreover, I would like one of my friends in Ukraine, just one of them, to be able to survive this war and be able to play the Kingdom Hearts 4, because I introduced him to this game series . I would really like him to see the continuation of this game series, so that he could see it. I really hope so. After all, I, he, and many others are just ordinary people - we go to work, sleep, eat, play, relax. And also I just want those who are listening to me now not to consider all Russians and Russians bad, because I believe in you, absolutely everyone. And no matter what race you are, no matter what religion you believe, it doesn't matter. The main thing is that you remain the people in whom you can believe, on whom you can hope and who continue to think that everything will be fine. And even if someone has the strength to fix this whole situation, who has these opportunities, they will be able to change it for the better and do everything peacefully, which is very very important for us now. Therefore, I believe in peace, which will surely come. And it will come exactly like that, that Ukrainians, that Russians will be able to shake hands and say that "Everything. We will have peace, we will have everything." Thanks for attention.
私はロシア出身のЮраです。{増田注:この「ゆ」にちょっと似た形の文字はなんと発音も「ゆ」に近い……つか英語と違って一文字で「ゆ」の発音になるんだなあ面白い}これは名無しとしてふるまうための仮名です。あなたの愛と好意を願います。ご存じのとおり、世界では「ウクライナでの特別作戦」が2月14日に始まり今も続いています。本当に恐ろしい出来事です。この衝突で双方が膨大な死者を出しています。この「ウクライナでの特別作戦」の目的はウクライナの非ナチ化です。もし「この作戦の目的は非ナチ化ではない」とメディアが言ったらそれこそニュースです。これが彼らの情報源です。どうにもなりません。
これについての私の意見は何か? まず、私は個人的にあらゆる戦争に反対します。私にとって戦争は悪で、暴力です。また、ロシア全体やロシア人全体を侵略者や単に悪人のようにとらえるのはよくないことです。なぜなら悪人や侵略者とは、このように行動して戦火をさらに燃え上がらせることで殺人や被害者の命乞いから満足感を得る人々のことだからです。
断固として戦争に反対したり、全てが今のようになったからという理由だけで最低の生物だと思われたくないと思ったりしているロシア人がすでに何百万人もいます。たとえば私には、今もウクライナで爆発や爆撃やミサイルなど、書き並べたくもないような目にあっている友人が数人います。私はいまも彼らと連絡を取り続けており、そして、神よ、ありがたいことに私たちはそのような恐ろしいことについて考えず、面白いミームや動画、別の分野からのいいニュースを交換しています。
結局、大切なこと…一番大切なことは、戦争が私たちの友情の妨げになってはならないと知っているので、私たちはこの戦争によって心を変えられていないということです。これが彼らに感謝している理由です。彼らはあのような辛い日々の中でも耐え、心を失わず、「ロシア人だからと言うだけの理由で、友の中から裏切り者を探さない」のです。もちろん戦争が始まる時には逆の例もありました。私の友人の一部はロシア人としての立場を守り始め、「ウクライナ人は人ではなく、特別作戦ですべてはよくなる。あの街を地ならしし、すべてを非ナチ化する」と言っていました。不幸なことに、このような人々と会話することはすでに恥です。何が言えるだろう、全ては明らかです。
たとえば私の街ではまだ「我々は公正な目標に従っている、そう信じればすべてはうまくいく」のような強いプロパガンダは見ていません。いいえ、もしそのようなものがあったとしても私は見ません。見たくもありません。そのようなものは私が自分の人生の目標に近づくためには無視しなければならないもののように思えるからです。私は自分自身が愛国者だと思ったことはありません。奇妙に聞こえるでしょうが、この点において嘘はありません。私はロシアに生まれました。だからこうならなければいけなかったのです。また、私はウクライナの友人の1人に、そう1人に生き延びてキングダムハーツ4をやってほしいです。私が彼に勧めたシリーズだからです。どうしても彼にこのシリーズの続きを見てほしい。本当にそう願います。結局、私も彼も、他の皆もただの普通の人々です。私たちは働き、眠り、食べ、遊び、安らぎます、
この話を聞いているみなさん、どうかすべてのロシア人を悪と考えないでください。私はあなたがた全員を絶対に信じています。あなたがどんな人種であろうと、どんな宗教を信じていようと、関係ありません。重要なのは自分自身を信頼でき、自分自身に期待でき、全てがうまくいくと考えられるような人間であり続けることです。この状況を修復する力と機会をもつ人間がいれば、彼らはこれをよりよくし、全てを平和的に行うことができるでしょう。これが私たちにとって重要なことです。
したがって私は平和が必ず来ると信じます。そしてウクライナ人とロシア人が手を握り合い「私たちは平和を得る。全てを得る」と言えることを信じます。ご清聴ありがとうございました。
「隕石攻撃」の箇所に関する訳註です。https://anond.hatelabo.jp/20220316191220 でのご指摘に感謝します。
Igor Sushko氏による英文は以下のとおり。
https://twitter.com/igorsushko/status/1500301354358636546 / https://twitter.com/igorsushko/status/1500301355990204420 / https://twitter.com/igorsushko/status/1500301356988387328
For example – you are being asked to analyze various outcomes and consequences of a meteorite attack on Russia (MY COMMENTARY: Here he most likely means the West’s sanctions) –
So you research the mode of attack, and you are being told that it’s just a hypothetical and not to stress on the details, so you understand the report is only intended as a checkbox for some bureaucrat, and the conclusions of the analysis must be positive for Russia,
otherwise you basically get interrogated for not doing good work. So, you have to write that we have all necessary measures available to nullify the effects of a given type of attack. We are completely overworked.
一方、ロシア語の原文 https://www.facebook.com/vladimir.osechkin/posts/4811633942268327 の中で、これに相当する箇所はこちら。
И вот Вам пример: Вас просят (условно) рассчитать возможность правозащиты в разных условиях, включая атаку тюрем метеоритами. Вы уточняете про метеориты, Вам говорят - это так, перестраховка для расчетов, ничего такого не будет. Вы понимаете, что отчет будет только для галочки, но написать надо в победоносном стиле, чтобы не было вопросов, мол, почему у Вас столько проблем, неужели Вы плохо работали. В общем, пишется отчет, что при падении метеорита у нас есть все, чтобы устранить последствия, мы молодцы, все хорошо. И концентрируетесь на задачах, которые реальные - у нас ведь сил и так не хватает.
これをGoogle翻訳で英訳したものが以下になります。(DeepLでもだいたい似たような訳になりました。)
And here's an example for you: you are asked (conditionally) to calculate the possibility of human rights protection in different conditions, including the attack of prisons by meteorites. You specify about meteorites, they tell you - this is so, reinsurance for calculations, nothing like this will happen. You understand that the report will be just for show, but you need to write in a victorious style so that there are no questions, they say, why do you have so many problems, did you really work badly. In general, a report is being written that when a meteorite falls, we have everything to eliminate the consequences, we are great, everything is fine. And you concentrate on tasks that are real - we don’t have enough strength anyway.
これを比較してみると、「隕石攻撃」は単にロシアに隕石が降ってくるという話ではなく、「刑務所に隕石が降ってくるような攻撃を含めた諸々の条件において、人権が守られる可能性」を算出せよ、という話だったというのが正しい理解であると思われます。
日本語に意訳するならばこんな感じでしょうか。何故この文脈で急に人権が出てくるのか謎ですし、(conditionally)のあたりもうまく訳せませんが…。
一例を挙げる—故事に言う杞憂のようなものも含め、諸々の攻撃に対する我々の備えの確率を算出せよ、との指示が下る。杞憂のようなものって具体的には何ですか、と尋ねてみれば、それはあくまで念には念を入れろということで、実際にこんなことが起こるというものではない、と言われる。それなら、なるほどこの報告は見せもので、ただ我々は勝ち誇ったように、問題など何も無い、という論調にする必要があり、そうでなければ「仕事ができていない」と詰問されるんだな、と理解する。したがって、報告書の結論は、たとえ天が落ちてこようが我々には対抗手段が揃っている、大したことなどない、ということになる。そうしておいて、我々は現実に起きている問題のほうに集中する-どのみち我々の手には余る話なのだし。
恋愛をしないまま、仕事ばかりしているとこの歳になってしまった。
三十代にもなると、地方ということもあり結婚の流れが早いのだろう、脚色抜きで自分以外の同年代はみな結婚をしている。
職場での人間関係は良好だと思うが、周囲から度々「最近ソッチはどうなのよ?」というピンク色を帯びたジャブをもらうこともあり、未だに独身を貫いている俺が奇異の視線で見られていることは明らかだ。
もはや俺は彼らにとって、空想上の生物と言って差し支えないだろう。
ヒトは三十にもなって女性器に自らの男根を挿入し腰を振る儀式を終えていないホモサピエンスをヒトだと認識できない。仕方の無いことだ。俺には性欲がない。これも仕方の無いことだ。
全く以て、どうしようもない。
自分には性欲がないのだと打ち明けると、周囲からはよく「俺には感情が無い」と額に手を当て嘯く中学生のようだと笑われたが、事実ないのだからどうしようもない。うんこは臭くて厄介だが、かと言って「明日からはフローラルに頑張ります」とはならないのと同じである。先天的に性欲がないのか、あるいは非モテとして過ごしてきた惨めな三十年間を説明するため、無意識のうちに「無かった」ことにしたのかは明らかではない。ただ、少なくとも今の俺に性欲がない以上、恋愛も結婚も何処までも遠くままならない。誰かが言った。すべての恋愛はセックスに通ずる。そうかもしれない。専らのトレンドは不純異性交遊だ。性器結合主義を信奉する若者にとって、セックスとは性器を通した精神交流である。
コンニチワ、とちんこが言う。
これでfinishだ。あとは腰を振るだけでいい。俺は童貞なので分からないが、きっと挿入とは麻雀で立直をした感覚に近いのだろう。責任や思考を放棄して快楽を待ち続ける時間はさぞかし幸福に違いない。もっとも、放銃による快楽の機会均等の観点からすると、セックスの方が麻雀よりよっぽど平等に思えるが。
ともかく、俺はそのいずれにも参加できない。俺のちんこはコンニチワが言えない。挨拶をしないちんこは非常識だ。それが分かっているので俺はちんこを表に出さないし、これまで鍵っ子のように下着のなかに閉じ込めていた。
けれども、そうこう言えない状況になってきている。地方は恐ろしい。結婚していることが出世の条件だとは思いもよらなかった。少なくとも俺の職場では、婚姻がその人の信頼性を担保しているようだった。そろそろしっかりしたらどうだと上司に言われ、同じ文脈で家庭の話になる。守りたい人がいるから仕事にも一層気持ちが入るのだと精神論が語られる。恐らく正しいのだろう、大多数の人々にとっては。しかし俺はそうではない。俺のちんこはあなたのちんこと違ってコンニチワが言えない。挨拶する相手もいないし、いても挨拶ができない。俺には性欲がないからだ。
おい、このフレーズ何回目だ? この問答を繰り返すことに何の意味がある?
俺は選択を迫られている。婚姻か転職かの二択だ。どちらを選んでも環境は変わるし、どちらも選ばないのもまた選択の一つだ。なかなか難しい状況だと思う。あなたにはきっと理解できない。俺にも理解できないのだから。
あるいは、俺たちの断絶はこういう風にも表せる。
あなたは左折を提案する。それが最短距離だからだ。俺は曲がらない。あなたは次の角で左折を指示する。俺は曲がらない。あなたは徐々に苛立ち、声を荒げる。俺は曲がらない。あなたは呆れて「理解できません」と言う。俺もまったくの同意見だ。こっちが曲がれないと言っているのに、曲がれと指示するカーナビが何処にある?
そうして車内は静かになり、俺は助手席に誰も乗せていない気楽な軽を走らせて、どこまでも真っ直ぐ走り抜けていく。
恐らくもうブレーキは利かないのだろう。壁は目の前に迫っている。
Religion is like a penis. It's fine to have one and it's fine to be proud of it, but please don't whip it out in public and start waving it around... and PLEASE don't try to shove it down my child's throat.
という文章が以前ネットで話題になっていたが、逆に言えば、性的な話題についてTPOを考えるというのは、「政治や宗教の話題は避ける」というのと同程度のマナーなんだよな。
少なくともヘイトスピーチやニセ科学と同等のものでは無いし、そのようにスティグマ化することは、政治信条や信仰に対する差別と同程度に許されてはいけないものなんだよな。
まあ中には、過激な政治活動家や宗教家がいるように、過激なチキンレースを好むオタクもいるだろうが、それを含めての「表現の自由」ではある。そこまで議論を後退させたとしても、ヘイトスピーチやニセ科学とは到底並ばない。
そして少なくとも宇崎ちゃんの献血ポスターや、戸定梨香の交通安全動画程度のものは、ごく普通のジェンダーエクスプレッションであって、「チキンレース」でもなんでもない。
なんとなく思い出して書きたくなった。ブログとか持っていないのでここに書く。
2000年頃に不登校になって、家にあったパソコンにかじりついていたんだけど、インターネットが繋がっていなかったので、パソコン雑誌に付いていたCDに掲載されているフリーゲームをよく遊んでいた。
だいたい2000~2005年ぐらいまで遊んでいて、2006年ぐらい、ニコニコ動画が始まったあたりでフェードアウトしていったって感じ。10年ぐらい前からフリーゲームについてはさっぱりわからない。
インターネットが繋がってから、フリーゲームを探すのに見ていたサイトは2chのまとめサイト、サニーガール、夢現で、前者2つはだいぶ前に無くなっていて、夢現は今見ると結構テイストが変わっている。
覚えている限りの良かったゲームを挙げる
アンディーメンテの「スターダンス」、「怪盗プリンス」、「アールエス」
ほとんどツクールの素材だけで作ったような作品だと「盗人講座」、「Fantasy War」、「Holy Knights-忘れられた手紙」
タイトル忘れたけど、ツクールで賞を取った、架空の江戸時代を舞台とした作品も印象的だった。
後期に遊んだものだと「ひよこ侍」、「セラフィックブルー」、「魔王物語物語」、「夜明けの口笛吹き」が印象的。
ツクール95作品はほとんど遊んだことは無いんだけど「REAL LOVE OVER LIE」は印象的だった。ただ、1・2どちらを遊んだのかが覚えていない。
「ぷちわらの冒険」
海外の作品で「Door Kickers」みたいな見下ろし型の作品があって良かったんだけどタイトルを忘れた。
御茶ノ水電子製作所の「second Anopheles」、「Duolith」、「LONGESTCAPERUNNER」
コミックメーカー製だと「碧の黙示録」、「MANSION OF THE FEAR」、「TRUE REMEMBRANCE」
林檎坂通信の「最後の夏」、「Does Anybody Really Know What Time It Is?」、「A Fine and Private Place(体験版)」
「ひとかた」、「時の館」、「Collage」、「シルフェイド見聞録」、「ゾウディアック1・2」
「消火栓」、「茜街奇譚」、「終末によせて」、「グッバイトゥユー」
クイーンオセロットの「Mental Mutant」、「夜の声」、「ルーカス」
ワードワードの「黒」、「家族の肖像」、「死線」、「アメリカ物語」
ブラウザゲームだと「ANATHEMA」
「天国へ!!」、あと夏にオフ会するADVがあったんだけどタイトルを忘れた。この2つはふざけた感じなんだけど、いかにもフリーゲームって感じで今でも印象的な作品。
ほかにも、千と千尋のタイトルをもじった作品で、内容も似たよう感じなんだけどすごい不気味な作品でこれもタイトルを忘れてしまった。
「TEST SHOOTING2 METEOR」、「Warning Forever」、「機動打者サンカンオー」、「超連射68K」、「スペースクウィーン」
ブロック崩し系だと「スマッシュセット」、タイトル忘れたけど重力がかかったやつ。
フリーゲームじゃないけどひぐらしの1話がVectorに無料公開されて、たしかその時はひぐらしの3話か4話が出たときで、そこからひぐらしを追い出して、うみねこが終わる2010年までリアルタイムで追えることができて本当にいい経験だった。
洞窟物語もよかったんだけど完成度が高すぎて上記に挙げた作品とはなんか空気感が違う。
なんにせよ一番影響を受けたのは間違いなくアンディーメンテで、こんなゲームを作ってみたいと思ってプログラミングを始めて、今はゲームプログラマになった。
オリジナルの日本語版が出て時間が経ってからのリリースだから、流出避けのために資料を絞ってるわけではないだろうになぜこんなに誤訳が多い……
(引用はすべてスーパーダンガンロンパ2とdanganronpa2より)
"(前略)vigorously slammed the button more times than he needed to."
砂漠のオアシスのようなさわやかな誤訳。しかし日本一ソフトウェアが免罪されるわけではない。
「斬新なローションプレイだね!じゃ、脱いでおいたほうがいいかな?」
"Ooooh, fresh coconut lotion! Would it be better if I take off my clothes first?"
ココナッツの汁をローションとして使うことが斬新だと言ってるのに英語版ではココナッツ汁が新鮮ということになっている。
確かに採りたて新鮮だがそういうことを言ってるんじゃない。
「嫌な手だな…」
彼の言葉は手に対するものに見えるが実質は直前の相手の発言への呆れというかツッコミというかだろう。
しかし英語版ではその発言に同意or黙認していることになり意味が違ってくる。
「ほら、醜い顔だよね… 」
"Look, he has such a horrible expression on his face, don'tcha think...?"
心をぞわぞわさせるどぎつくて悪意あるセリフがごく普通の描写になっている。
直訳してくれてればよかったのに。
"Tch! Nosy bitch...!"
細かいヤロー呼ばわりされているのは彼の会話相手(男)でありbitch(女)ではない。
確かに女子の話題は出てくるが、このシーンで細かいといえるとしたら男の方である。
この二つによりこのbitchはほぼ間違いなく話題に出た女キャラを指すと思われているだろう。
ちなみにbitchは性的な意味を含まないことが多いのは知っている。というかこのゲーム内でのbitchはすべてただのクソ女か意味のない悪態として使われていた。
再追記終わり
"But...it's an academy that recruits only exceptional students from around the world, right?"
辞書を引かないのだろうか。
全体的に日本語がよくわかっていない訳が多い。
「おいっ、何をしているっ!」「やめろっ!!」
有能で状況を正しく把握していた彼だが英語版ではとろい間抜け。
「なんだよ…オメーもあの窓が気になんのか?」
なにをどうやったらこんな訳になってしまうのか見当もつかない。
「なんだぁ…使えない…」
"Aww...how useless..."
原文は話し相手を無能呼ばわりしているが、英語版ではそれ(物)は壊れているから使用できないという意味のようだ。
「このふとどき者っ!わたくしはそんなに膝の軽い女ではありません!」
"Imbecile! I am not some woman with flexible legs!"
「惜しい!もう少し上です。」
"O-O-Of course you're not! You're much classier than
「けど…速く走れそうだな。」
"With legs like those, I could prolly do the splits real easy."
英語版はflexible legsなるドンピシャな言い回しがありながら活用(ancleでもhipでもいいだろうに)しないでつまらない訳をあてた。
「目覚めたぞ!」
"I have awoken!"
クラスメイトの変態化を目撃した驚きが英語版では起床報告になっている。
本筋と関係ないのが救い。
「わからないんだったらいいよ…わからないまま終わればいいよ…」
"It's fine if you don't understand... You can just see the end without knowing."
危うく見逃すところだった。感じたモヤモヤに従って立ち止まってみてよかった。
日本語版では「謎が解けないまま終了」だが英語版では「終了することに気づかない」。
「ボクらは昔から、そういう風に教わってきたはずだよ。」
「直接的に言葉で言われなくたって、ボクらを取り巻く世界を見ればわかるよね。」
「テレビやネットや新聞から垂れ流される“希望溢れるメッセージ”がそう言ってるもん…」
「勝てない人間も…頑張らない人間も…頑張っても勝てない人間も…」
"For a long time, humans have been taught that if you try hard enough, you can accomplish anything."
"Even if we weren't told this directly, you'd know it just by looking at the world around us."
"The Internet, TV, and newspapers are overflowing with hopeful messages that say exactly that..."
"But people who can't win...people who don't try to win...people who try their best and still can't win..."
気づいた瞬間血の気が引いた、個人的に最低最悪の誤訳。機械翻訳にかけてもこうはならない。
元の文章にありもしない"if you try hard enough, you can accomplish anything"と"But"を入れようとした時点でおかしいと思わなかったのだろうか。
また英語版だと彼は"Internet, TV, and newspapers"に賛同していないことになるが、それなら"hopeful messages"と形容するのは不可解だと気づいてくれよ。
訳者は単純に読み違えたのか勝手に自分の主義主張を入れ込んだのか。
個人的には中間をとって、先入観に惑わされて誤読したのだろうと思っている。
確かに英語版は敵役とかちょっと厨二かひねくれものの主人公とかライバルが言いそうな、または苦い現実を地道に描くような物語によく出てきそうな言葉だ。
でも彼はそうじゃない。
彼を、ちょっと幼げで熱情的で小物っぽい狂信者を表したセリフをよくもこんな訳にしてくれたものだ。
"It's like the smug feeling you get when you explain something
同時通訳者の逸話で、どこかに招かれてスピーチした人が日本語に訳しにくいジョークを言ったときに
「この方は面白いジョークを言いました。みなさん笑ってください」と言って
その場を丸く収めたという話を思い出すが、ゲームの訳者は客に笑えと頼む仕事ではない。
確かに英語版もどことなく彼女がいいそうなセリフだが日本一ソフトウェアの罪が軽くなるわけではない。
「オメーがオレを殴んだよ。」
「だってお前…いつも俺を信じてなかったろ?」
良いシーンで誤訳。二つも誤訳。どうしてそうなるのか意味不明すぎて恐怖すら感じる誤訳。
詳細は伏せるが日本語版ではあるキャラの口調が一時変わる。それはいいけど英語版で微妙に追従してるのが困る。
英語に口調の違いなどほとんどないのに無駄に一部だけ変更してるから違和感しかない。誤字脱字だと思った人が多いだろうなあ、あれ。
ささいなことだとは思ったがここはあえて日本語版に背きその変更は削っていつもと同じ口調にしてもらった。
「そうか? 栄養ドリンクに見えなくもないけど…」
"Really? It looks like some kind of dietary supplement to me...Protein powder, maybe...?"
ぷっwwぷろていんwww
リアルで吹いた訳。その人がプロテインなんて持ってると思ったか?
ここで出てくるのは茶色で小さめの瓶。彼にはオロナミンcやデカビタのようなものに見えたのだろう。
しかし他の人に尋ねたところ、海外にはそのような容器に入ったエナドリはないらしいからプロテインにされてても仕方がない。
ちなみにこの訳の違いによる実害はない。
田中のセリフはなぜか軒並み高品質だった。ソニアのほとんどのネタが再現されていないのと鮮やかなコントラストを成していた。
左右田の口癖は「メンドクセー」というものだが、残念なことに英語版ではこれが毎回違う単語で訳されており口癖になっていない。
彼が手間や時間がかかる作業についてそう表現したことは一度(あいまいなのを含めれば二度)しかない。
あとは全て、怖い・不安という気持ちのときにのみメンドクセーと言っている。
臆病だったり地味に泥臭くこつこつ努力したりする左右田が恐怖を面倒という言葉に変えることでのんきで軽薄なパリピを装っている描写だと思っている。
ちなみに、一度だけの純粋に手間がかかることをメンドクセーと呼ぶシーンは
みんなの手間を省こうと努力して成功したがそれでも手間が残ってしまったときの
「メンドクセーけどヨロシク(意訳)」だからむしろ上の思いを強化している。
友達と仲間はそこそこ区別して使われているが英語版では全てfriendになっている。
なんとかしようと思ったが仲間をうまく表せる言葉は英語にはないようだ。
他の人に聞いたところそこの言語には仲間にあたる言葉があるようで一度は喜んだ……が
実際のところとあるきっかけからその言葉は廃れて今ではほぼ皮肉にしか使われないと言われ不意に
その人はゴッド・オブ・ウォーに戻しておいたそうだ。
それを英語版では円をそのままドルだったり"you don't speak English"だったりして違和感しかない。
ありがたいことに他の人はこれもyenに直したり"Don't you understand in human terms?"という意味の訳文にしたりしてくれた。