はてなキーワード: NOTEとは
そうそう、このNote、そもそも訴状が来ていないのに訴状全文を知っている前提で書いているのもすごいですね。なぜ基本的に誰も見たことがない訴状の内容を無関係な人間が当然といえるのでしょう。ありえない。
表3という裏帳簿もある。
Noteとあなたがおかしく、嘘つきなのは、訴状は来ていないという点を踏まえていないという点です。
https://twitter.com/asano2370/status/1656175746480754688?s=20
この例外はあなたが、訴状全文をを見たことがある場合だけです。それはマスコミかコラボ関係者しかいない。
ついでに言うとコラボの弁護士ですね。このNoteを書いているの。これが訴状。でもこれでは勝てない。そもそも質問状無視したことが正当化できない。
また、そもそも3万字の中身は、大半が浅野文直の丸写しです。でもそこじゃないわけで、これじゃ勝てない。争点がなさすぎだから。これで名誉毀損勝てるはずがない。やることをやらない。むしろ浅野文直はずっと待っていたわけで、悪印象は全てコラボに問題がある。
ChatGPT3.5だけど、英語でやってみたらやっぱりポンコツだった。赤太字は筆者注。
List some words that start with the letter A and end with N. (Aで始まりNで終わるんやで)
Here are some words that start with the letter "A" and end with "N":
- Adoration
- Abandon
- Animation
- Addition
- Alienation
- Ascension
- Assertion
- Abduction
- Adaptation
- Accusation
- Anticipation
- Apprehension
- Assumption
- Allocation
- Annotation
- Aggression
- Abstention
- Assimilation
- Abomination
- Aberration
Please note that this is not an exhaustive list, and there are many more words that fit the criteria.
(ええやん。できてるやん。やっぱ英語だといけるんかな?)
Nice. Let's add one more condition. It should be in 6 letters. (6文字条件を追加やで)
Certainly! Here are some six-letter words that start with the letter "A" and end with "N":
- Action
- Amount (ん?)
- Autumn
- Absurd (ん?)
- Arisen
- Auburn
- Apron (ん?)
- Austin
- Aspens (ん?)
- Airman
- Axiom (ん?)
- Amazon
- Aragon
- Aston (ん?)
- Ataman
- Aspnet (ん?)
- Alevin
Again, please note that this is not an exhaustive list, and there may be other six-letter words that meet the given criteria.
The words you listed contains some incorrect words. List the incorrect ones with its reasons.
Apologies for the errors in the previous response. Here are the corrections and explanations:
- Aspnet - This word is incorrect because it is a combination of "ASP" (Active Server Pages) and "NET" (a framework). It is not a standalone word. (自分に厳しいやん。でもtで終わってる点はスルー?)
- Ataman - While "ataman" is a legitimate word, it is not of English origin. It refers to a military title or leader in certain Cossack communities. (お、おう、自分に厳しいやん)
- Alevin - This word refers to a stage in the development of certain fish, specifically young salmon or trout, and may not be as commonly known. (自分に厳しいのか、相手をちょっとバカにしてるのか微妙やな?)
Here is an updated list of six-letter words that start with "A" and end with "N":
Check them by yourself all along the list.
Apologies once again for the inaccuracies. Upon reviewing the words, I realized that there are additional errors. Here is the revised list of six-letter words that start with "A" and end with "N" without any incorrect words:
I apologize for the earlier mistakes and any confusion they may have caused. Thank you for bringing it to my attention. (さっきのリストとまったく一緒やぞ)
Let's check one by one.
Apologies for the previous inaccuracies. Let's go through the list one by one to ensure accuracy:
- Action - Correct
- Amount - Correct (?)
- Autumn - Correct
- Absurd - Correct (?)
- Arisen - Correct
- Auburn - Correct
- Aprons - Correct (?)
- Austin - Correct
- Aston - Correct (?)
Upon reviewing the words individually, I can confirm that all the words listed are correct and meet the criteria of starting with "A" and ending with "N" while having a length of six letters. (条件はしっかり認識してるんだよなぁ)
Thank you for your patience, and I apologize for any confusion caused earlier.
Is "amount" correct?
Apologies once again for the oversight. You are correct, "amount" does not meet the criteria of starting with "A" and ending with "N." I apologize for the mistake.
Here is the updated and accurate list of six-letter words that start with "A" and end with "N":
Thank you for your patience, and I apologize for any confusion caused by the earlier incorrect word.
(これ1つずつ消していかんとあかんのか…?)
Is "Absurd" correct?
Apologies once again for the mistake. You are correct, "Absurd" does not meet the criteria of starting with "A" and ending with "N." I apologize for the oversight.
Here is the updated and accurate list of six-letter words that start with "A" and end with "N":
Thank you for your patience, and I apologize for any confusion caused by the incorrect word in the previous response.
There is one word that doesn't satisfy the conditions even now. Can you identify it? (最後の試練を与えたるで)
Apologies once again for the oversight. Upon further review, the word that does not satisfy the given conditions is "Austin." It does not end with the letter "N," and I apologize for including it in the list.
Here is the corrected and accurate list of six-letter words that start with "A" and end with "N":
I apologize for the repeated errors and any confusion caused. Thank you for bringing it to my attention.
Austin has six letters.
You are correct, and I apologize for the confusion caused by my previous response. "Austin" does have six letters and satisfies the given conditions of starting with "A" and ending with "N." I apologize for the mistake in my previous correction.
Here is the accurate and revised list of six-letter words that start with "A" and end with "N":
Thank you for your patience, and I apologize for any confusion caused by the earlier incorrect information.
Let's check all the words by counting each letters.
Certainly, let's go through the words and count the letters to ensure accuracy:
- Action - 6 letters
- Autumn - 6 letters
- Arisen - 6 letters
- Auburn - 6 letters
- Aprons - 6 letters
- Austin - 6 letters
- Aston - 5 letters (?)
Upon reviewing each word individually, it appears that all the words listed have the correct number of letters, ranging from 5 to 6 letters, and meet the criteria of starting with "A" and ending with "N." (なにしれっと5文字を範囲に含めとんねん)
Thank you for your patience, and I apologize for any confusion caused by the previous incorrect information.
What do you consider "the correct number of letters" in this situation? (文字数の条件は正しく認識しとるんか?)
Apologies for the confusion caused by my previous response. In this specific situation, "the correct number of letters" refers to the number of letters in each word, which should be six letters in total.
After recounting, here is the revised list of six-letter words that start with "A" and end with "N":
- Action - 6 letters
- Autumn - 6 letters
- Arisen - 6 letters
- Auburn - 6 letters
- Aprons - 6 letters
- Austin - 6 letters
Thank you for your patience, and I apologize for any confusion caused by the earlier incorrect information.
(具体的に Aston が間違いだと指摘しなくても自分で気付けたのは偉いで…)
Good job.
Thank you for your understanding. I apologize for the initial mistakes and appreciate your patience. If you have any more questions or need further assistance, feel free to ask.
『ター』、ツイッターとかで褒められてたから気になってたんだけど、褒めてる奴と褒め方がなーんか小うるせえいけ好かない感じだったので「これはどっちだー?」と思って観に行った。
キャンセルカルチャーざっくばらん風刺&アマデウス&最後は取ってつけたように「すべて失った主人公が故郷で昔の純粋な心を取り戻す」みたいなしょうもないくだりを挟んでアジアとゲーム音楽をバカにして終わるっていう、白人が「考えさせられるよね~」っていうためにつくった凡庸なストーリーに、黒沢清の出来損ないみたいな、思わせぶりなガチャガチャした画面と音響でいかにも「肥大した承認欲求ではち切れそうなネットの自称シネフィルの皆さ~ん、考察しがいのある素材お持ちしましたよ~」ってあざとさが鼻につく、メタファーのなぞなぞ遊びみたいなしょうもない演出。おれはクイズ番組に参加しに来たんじゃなくて映画を見に来たんだよバカがよ。ただただケイト・ブランシェットが2時間半めっちゃがんばってるってだけの映画だった。「面白い映画」と「役者が頑張ってた映画」の区別はつけて喋ろうぜみんな。
ただ!ただよ!この映画周りで唯一面白い話を見つけて、町山智浩が映画秘宝のnoteで、『ター』を解説するpodcastを200円で売ってるのよ。
これ素晴らしいなって思ってさ。だって、間違いなく「あの頃の冷笑サブカル」の一時代を築きながら、まさに恫喝やらハラスメントやらが表沙汰になって炎上して命脈を絶たれた映画秘宝と町山智浩だよ?それが、細々とnoteの片隅で小銭稼いでるわけだよ。もうそれ自体が日本版『ター』なわけじゃん。実写版ケイブラは町山智浩だったわけですよ!
もうそういうわきっちょのことを無理やり面白がるくらいしかすることがないです。一応、町山さんの解説音声は聞いてみよっかな。
https://note.com/carlos_yabuki/n/nf9a90f3fb7ba
これ、作家側がテレビ朝日の担当者の何を失礼と考えたのかが明確でないと感じた。
「こちらには何の返信もなく、こともあろうに実質ビジネスパートナーの様な人物にギャランティを明記した上での依頼メールを飛ばしていたのです。それが出来るんだったら、最初から私にもそう書いて依頼して欲しいものです。」
と書いている。
これを読むと、「テレ朝はこちらには条件提示をしていない」「にもかかわらず自分のビジネスパートナーのような人物にはギャランティを提示している」「だったら私にも最初から条件提示した上で仕事依頼しろ」という点に不満を持ったようだ。
「テレビ朝日側から取材依頼があった時にギャランティの話がなかったこと」が問題ということだ。
「その上で、改めて条件を提示していただいた上で仕事を依頼された」
と作家は書いている。やはり条件提示(ギャランティの提示)の部分に問題があったとの認識のようだ。
「あと、ここにちゃんと書いてあるつもりですが、僕が何故怒ったかといえば、「条件提示がなかった(ノーギャラだった)から」ではありません。」
と書いている。ここで話がわからなくなった。
先ほど指摘したようにこの作家はテレビ朝日から仕事依頼を受ける際、条件提示がなかったことに怒ったと書いていた。しかし、末尾では問題点は条件提示ではないという。
本人は「ちゃんと書いてあるつもり」というが、私が見る限り文章内に矛盾があり、結局この作家が何に怒ったのかは明確でないと感じた。
この辺りどう読み解けば良いのか諸賢の意見をうかがいたい。
30代男。
10年以上前の話、他人のGoogleアカウントの検索履歴を見て興奮していた。
当時、よく大学のサークルや部活なんかがGoogleのPicasa(今はない)を写真を共有するのに使っていて、IDとパスを無造作にサイトや掲示板に書き込んでログインして見てくださいねーってやっていた。
最初はサークルのサイトを漁ってそういうのを見つけて、海とかプールで女子大生が水着になってる写真を収集しておかずにしてたんだけど、ある時PicasaとGoogleアカウントは紐づけられているから、誰かがログインしたままGoogleで何かを検索したらweb履歴からその内容を見ることができるということに気づいた。
盗んだパスワードではなく、自ら全世界に大公開してくれているパスワードなので不正ログインにはならないはず。(ならないよね?なってても時効だと思うけど)
もちろん誰の履歴なのかなんてわからないから想像するしかないんだけど、検索ワードからなんとなく推測することはできた。
女性向けの服のブランドのサイトがたくさん並んでたら女子。一気にテンションが上がる。
で、エロの話。
前述のように女の子の履歴であるとわかったところで見ていくと、明らかにその子がオナニーのおかずにしているであろう検索ワードが見れることがある。
女性向けのアダルトサイトとか、エロ動画のサンプル動画を集めたサイトとか(サンプルっていうのが慣れてない女子っぽい)、BLサイトとか。
これを発見できたら脳汁が出まくり(我慢汁も出まくり)、嘘みたいに興奮して、それだけでおかずにできた。
基本的に、履歴はそのアカウントからログアウトしない限りずっと蓄積されていく。
だから、巡回先みたいなのがいくつもあって、日々いろんなアカウントのログインとログアウトを繰り返しては顔も知らない女の子たちの検索履歴を拝見していた。
そうすると段々行動パターンもなんとなく見えてくる。
とある子は大体夜の20時くらいからネットサーフィンを始めて、アパレルのサイトを巡回した後にエロサイトに移動、30分くらいおかずを物色した形跡が続き、21時くらいに履歴が途切れる(=この時間くらいに果てたんだろう。)
たまに、リアルタイムで検索履歴が積みあがっているところに遭遇して、どこかの女の子が今まさにエロサイトを巡回してオナニーしているんだなーというのを感じて感慨深くなったりもした。
エロサイトだけじゃなくて、「胸 小さい」「胸 マッサージ 巨乳」みたいなのとか、「彼氏 ちんちん 大きい 入らない」みたいな、絶対人には知られたくないだろうなと思えるような悩みやコンプレックスの検索履歴を見ることもできて、これも興奮した。
その後、Googleもいろいろログイン方法を進化させていき、今では2段階認証とかが必要になったからもうできなくなっているはず。
そもそもインスタができてパスワードでアルバム共有っていう風習もみなくなった(Picasaは消滅してGoogleフォトに統合された)
というわけで、気持ち悪すぎる覗きが趣味な変態の思い出話でした。
書きながら思い出してまた興奮してきたな。
多分皆見に行ってるし、ツイッターやらnoteやらに山のように批評が上がっているから書く必要は正直無いんだが、この感動を残しておきたくて書いておく。
私はマリオは兄がやっているのを横で見ているだけだったのだが、それでも胸が熱くなり、色々な思い出が蘇り、そして帰宅後マリオのソフトを買った。3D。そしたらいきなり映画に出てきた透明の土管が出てきて、とても嬉しかった。
正直ストーリーは陳腐だし、新規ストーリーとかオリジナルキャラクターとか出てこない。新規性ゼロ。全部知ってるし、展開も分かる。でも、それがいい。某実写化のように、変に監督のメッセージ性が入っていたり、夢主みたいな主人公がマリオの世界に迷い込んで?!みたいにならなくて良かった。マリオという皆が遊び、共に育ってきた旧友を、監督やらプロデューサーのくっだんない実験場やら最強の主人公発表会やらにされなくて、本当に、本当に良かった。
同時に、そうなってしまった映画化作品を思い出してげんなりする。マリオが成功したから、今後は原作へのリスペクトと忠実さを体現した作品が増えるのかな。増えてくれるといいな。
はてなにいる真の弱者男性論信者って多分2,3人とかごく少数しかいないよ。あとは増田のノリで書いてるだけ。
弱者男性論壇のトップのタワ饅頭こと白饅頭の有料noteがあって数百人も買ってる奴がいるらしいんだが
https://b.hatena.ne.jp/entry/s/note.com/yoshiki_stu/n/nbae97aa6e40a
ahomakotom この文章のタイトルすら同じ論理構造になっていると筆者さえも気づけていない。/有料部分で種明かししていればタイトルで偏見を撒き散らしていい事にはならない。むしろより悪質。
「~~と筆者さえも気づけていない」という、ahomakotom氏はなんか堂々と断定してるけど、単に想像、妄想で決め付けてるだけ。積極的に詭弁を捏ねて行ってるわけでは無いというだけで、多重質問と同じ性質の悪意だよね。
筆者の矛盾を鋭く抉ったみたいな顔してる(単なる想像)けど、結局はahomakotom氏も同じ穴のムジナになってるって、自身は自身で“気付けて”いるのだろうか?
で、note主は有料部分で釣りタイトルだとエクスキューズしてる。これがゲームなら、本なら、映画なら、「公開されてる序盤部分だけで品質や製作者の人格を予断して、フルスイングの悪口いいまくってるやつ」がどれだけ愚か者扱いされるだろうかって、それくらいは想像できるでしょ? note相手なら通ると思った?
しかも別に金払わなくても、無料部分ラストの言葉、ここから一ひねりあるんだろうくらいは想像できる様になってるよね?
とはいえ、これはな、だれでもやらかすんや
「自分や身内のやらかしの懺悔が始まるのかも」くらいは想像できる書きぶりやん? 自分を客観視できてるだろうって思うやん? これちゃんと見てたら、単なる想像で一線超えた決め付けをベースに悪口言ってやろうとか、思わなくない?
で、その代金ってたった100円なんよ。お前が大恥かくリスクを負って(実際かいた)得たの、100円なんよ。
ただ金を払うかどうかを言ってるんじゃない。素人クソ野郎のnoteに一銭たりとも払うかバーカみたいなスタンス、それ自体は共感できる。
っていう3要素を全部やってる事を言ってるの。3つ中2つまでなら分かるんだよ。
どのパターンも全然許容範囲内だと思う。でもトリプルはダメでしょ。だってそんなん単なる害虫じゃんすか。
有料部分で種明かししてるよ~ってツッコミ受けて追記されたのが後半部分。
それはそう。非の打ち所の無い正論です。
単なる想像で事実に反する悪口を断定口調で繰り出しただけの前半に対して、マジで全く関連性が無い指摘が追記された事には驚いてるけど。
マジで全く関連性が無い。コメント前半の緩いノリと違って、汚名を返上するために全身全霊を賭けた詭弁でカウンターパンチを決めなければならないという、インターネット戦士のバトルスイッチがONになったのを感じるぜ(単なる想像)
と言うかこれ、どちらかと言うと、コメント前半に刺さってるんですよね。「~~と筆者さえも気づけていない」という嘘を撒き散らしているのはahomakotom氏自身だし。釣りタイトルだよって指摘を受けても尚、誤りが判明したコメント前半を修正せず公開し続けてるのは、単に愚かなんじゃなくて故意の悪意だし。
修正とか撤回とか弁解とかをやらないの、「コメント後半の追記で、前半を補強できている」って認識だからですよね? マジで全く関連性が無い指摘なのを承知の上で。「むしろより悪質」ですよね。
上では「同じ穴のムジナ」と言ったけど、それどころか、ahomakotom氏が単に一人だけ図抜けたユニークな悪質野郎だって事に“気付けて”いるのだろうか?
別にahomakotom氏というただ一人のユーザーが愚かだったり邪悪だったりするのは良いんですよ。めちゃくちゃ親切な事に、idで自己紹介してくれてるし。
こういうのにドカドカ★が付くんだよね。
そこはもう、コミュニティとして終わってる。
ahomakotom氏から反応がありました。
ahomakotom 終盤の下らないハンドルネームいじりでコミュニケーション不可能、読む価値なしと判断しました。NGに入れておくので二度と絡まないでください。
最後まで読んだアピールw 害虫呼ばわりした時点では読む価値アリと判断してくれてたみたいで、ありがとうございますwww
ていうか、何をお前、「他人に対してコイツはコミュニケーション可能/不可能とかってジャッジする権利」が自分にはある、みたいに思い上がっとんねん。逆や逆。お前は他人にコミュニケ不可と判断される側、切り捨てられる側やねんぞ。分をわきまえろ(これは別にahomakotom氏に限らず、一般論としてブクマカは全員そうです)(つまり俺自身も……)
二度と絡まないでください(キリッ)とかやる前に、図抜けた悪質野郎であるてめーがまず率先して、他人のブログやnoteに事実に反した攻撃的なブコメ付けるとかいう迷惑行為を控える事からやろが。害虫から人間になれ人間に。
https://note.com/yoshiki_stu/n/n28b80e20d2ab
①彼は、最初に「僕はネタと本気の違いが判る人間だ」という自信を見せるコメントをしていたわけですよ。
②で、私のnoteを見て自信満々に「こいつはマジで言ってる」「見る目がある俺が言ってるんだから間違いない」と断定してしまった
③他の人がいうならともかく、前のコメントをした以上、恥を知る人であれば「だまされた」なんて被害者面は口が裂けてもできない状況ですよね。
④最初からそう言ってたなら問題ないんですよ。でもこの人は最初に「正しい意見をいうよりも」「他人にマウントしてドやりたい欲求」を抑えきれなかった。
ほんまにコレ。目次だけで全部終わった。
1.
@echonewsjp
しかし帰結が、顧客を教唆して実子を連れ去るマネタイズなら、そのビジネスモデルは社会の信頼を基底から掘り崩すものです
https://twitter.com/marusoleil0721/status/1653201939356856322
https://twitter.com/echonewsjp/status/1653685384067571712?s=20
2.
@echonewsjp
神原のパワーワード「リーガルハラスメント」、本家本元が判明だわ?
ほむらちゃんに絡んでる共同親権反対弁護士「三毛猫」のプロフにあるnoteが最初よ!
三毛猫さん、弁護士ですよね、あなた。職名名乗ってくれますか?
@Mikecat53996816
貧困女性支援を叩きまくってたオジサンが妻子に逃げられて子供の写真を晒してるよ。
相手の弁護士と話すと負けるから書面は無視するんですって〜こんなん量産した責任取れよ。
@otakulawyer @masaki_kito @takitaro2
3.
@echonewsjp
太田啓子さん?
ほむらちゃんの家庭を10回以上連続で罵倒してるツイ垢のプロフにあるnoteのメアドでググったら、なんであなたのツイ垢が出てくるの?
なんでか分かったら教えてくれるかしら!
無関係なら、そう言ってほしいわよ?
@katepanda2
この話には根拠がある。
致命的なのは2番目のツィート。
古から続くインターネット(Web社会)を生き残ってきたはてブ民こんにちは。
情報商材やうさんくさいマルチなんて引っかかるヤツいないだろと思ったら家族(姉)が引っかかってました。
姉は今まで普通に生きてきた人で数年前子どもを授かり将来に向けてお金の不安があったみたいだ。
そこでインスタで見かけた情報商材にどぼん。その広告見せてもらったらしっかり子どもが小さくて時間がない主婦って書いてあってエグさを感じた。
自身が引っかからなくても家族が引っかかることが分かったので今回得た知識を少しここに共有しておこうと思う。
むかーしむかしヤフオクで情報商材が販売されていたのは皆さんご存知だろうか?
中身はよく知らないのだがアフィリエイト系のものだったように思う。ブログ作って適当な商品レビューしてAmazonアフィや他アフィリンク繋げろって感じのやつ。
時代が移り変わってあまり見なくなったと思っていたんだけどあれが最近形を変えて再燃している。
販売する場所として使われたのはヤフオクではなくnoteだ。noteは知ってる人が多いと思うけど手軽に誰でも知識・経験・創作物を発表できる。
個人のブログのように検索上位に来るようあれこれする必要もない。ただ書くだけ。楽でいい。
そこに中身は色々だけど「お小遣い稼ぐ方法」「せどり」「転売」「ナンパ」「婚活」なんでもいいけど適当な文章を書いて、金額をつけて販売する。
ここで終わらなくてそこに紹介報酬を付ける。そのnoteをAさんが買ったとしよう。AさんがTwitterなどで紹介してBさんが購入した時、Aさんに紹介料として何%かが還元される。
よく考えているものだ。そんな訳で中身というより紹介料欲しさに中身があるようなレビューが並んであとはネズミがチューチュー取り放題。
こういう紹介はTwitterやインスタ中心で広がっているようだ。
気をつけたいのが最近Twitterのおすすめに出やすい方法というのが
この辺でスコア稼いでおすすめに出やすいようにされている。魅力的な商品とか抽選で配りますってのはこれ目的。興味のないものには反応しないようにしよう。
紹介料つけた記事の販売はしばらく前から流行っていたらしく現在noteでは禁止されているが、Brain等別サービスに移行して続けられている。
禁止されては次のサービスって感じだがそろそろカモになってる人には気づいてほしい。
結論としては 紹介料ありきの中身が薄っぺらい情報商材には気をつけろってこと。競馬予想とかも流行ってるらしいけど過去実績調べたほうがいい。
姉ちゃん落ち込んでて俺も凹んだ。
[B! ネット] 攻略ツールをGameWithに模倣されたお話|oliver|note
GPLを理解していないコメントがあるのは仕方ないとしても、これにスターが大量に集まるのはバカの見本市すぎるだろう。
模倣元のツールはMIT Licenseで公開されていたらしいので、状況は概ね3パターンに整理できる。
パターン1はどんなオープンソースライセンスでも問題にならない。
パターン2はMIT Licenseでもライセンス違反なのでGPLを選ぶ必要がない。
(MIT Licenseは著作権者とライセンスの表示が必須で、少なくともソースコード上に「Auther: ○○」「License: MIT」と記載する必要がある)
パターン3はGPLでは問題にならない。FSFのFAQより引用する。
Q. ある会社がGPLが適用されたプログラムの改変バージョンをウェブサイトで動かしています。GPLはかれらは改変したソースコードを配布しなければならないと言ってますか?
A. GPLは誰もが改変したバージョンを作成し、他に配布することなく、使うことを許しています。この会社が行っているのはこの特別な場合です。ですから、この会社が改変したソースコードをリリースする必要はありません。
というロジックになっている。結局、どのパターンでもGPLを選んだところで問題は解決できない。
また、次のコメントも間違っている。
CC-BY-NCの定める「営利目的」はソフトウェアを売買したり利用料を得たりするような行為のことで、アフィリエイトで広告収入を得る行為は含まれないから抑止にならない。
この中でまともなこと言っているのはこの人だけである。
GPLv3含め通常のOSSライセンスではバックエンド利用は再配布に該当しない(お前らはApacheやFFmpegのソース配布してるか?)。XaaS提供を縛りたい場合はv3フォークのAffero GPLv3が必要。
ただ、模倣先のツールはクライアントサイドアプリケーションらしい(≒パターン3ではない)のでAGPLv3を選ぶ必要はあまりないだろう。内容は的確だが、ちょっと惜しい。
-----
ここ最近感じていること:コメントの質が云々というより、スターを付ける人の質が悪いので一向に改善されない問題のほうが根深いなあ。
結婚して数年はインターネットの民として知名度が伸びてきて数年のメタファー
ドアが開いて男が入ってきたはブクマカに目をつけられたことのメタファー
防犯機能がオフで警察に言っても捜査は進まないのは運営が守ってくれなかったことのメタファー
おそらくだけど仕事はしてる茶色いツナギは職業不詳異常中年男性のメタファー
庭でBBQをすると突然不機嫌になるのはメタファーではなくてもはや事実
ここ10年ぐらいの年間読書量
・小説 5冊/年
・ビジネス書 5冊/年
・技術書 1冊/年
文章が書けなくなったと感じたのは映画のレビューをしようとしたとき。
内容について少し長めに話したいことがあったのでTwitterじゃなくてnoteで2000文字ぐらい書こうとした。
書けねえんだなコレが。
文章の構築の順番が分からんし、言いたいこと同士を繋げるための話の流し方が見えてこない。
何よりもアカンなと思ったのが語彙力が明らかに落ちてきてること。
最近はTwitterの140文字ですら読み返すと同じ表現が2回3回と出てきてる。
本当に同じ意味を現したくて同じ表現になっちゃうのはいいんだが、微妙にニュアンスが違う言葉まで同じ言葉になっている。
たとえば人間に対して「好き」を使う時って「性格は最悪だと思うけど顔付きは好み」(好き≒顔がタイプ)だとか「思想はどうかと思うが文句言ってるだけじゃなくて行動に移す所は良いと思う」(好き≒気っ風が心地よい)みたいな違いが出てくるけど、それを表現するにはダラダラと長く説明するか、対応した単語や慣用句を持ってくる必要がある。
本題とあまり関係ないところをダラダラ長く書くなんてしたくないから丁度いい言い回しでサクサクと終わらせたいんだが、その選択肢が昔の半分程度に目減りしたように思える。
類語辞典を引こうにも最初に指定した言葉の範囲が広すぎるとやたらと時間が掛かるし、GPTに聞いてもオウム返しにされるだけに終わるし、結局自分が言葉を知らんと話にならんなと。
どうすればいいかは分かってるんだよ。
本を読めば良い。
インターネットと漫画だけじゃ限界があるってことがよくわかった。
そもそも本読んだら文章の勉強になるかっていうとかなり時間がかかるしなあ。
アイディア勝負の悪文小説なんて世の中に沢山あるし、なんかの大賞取った本でも半分ぐらいは設定の勝利みたいなもんじゃん。
読むと文章が上手くなる本シリーズみたいのがあって、それを月1冊読めば30冊分の読書量と同じ語彙習得が可能なのとかないん?
"使える語彙辞典"みたいな感じのではなくてな。
ゆーて語彙辞典とか読むと雑にやってるうちに敬語グチャグチャになってきたんだなーって勉強になって面白くはあるけどさ。
本当、単にダラダラ社会人やってるだけだとドンドン基礎学力が落ちてくな。
幼稚園~大学までは毎日授業と課題に追われているうちに勝手に賢くなったけどあの感覚で生きてちゃ駄目なのな。
語彙力と押して気づけて良かったのかね?
微分積分は「距離・速度・加速度」の関係だけ覚えてりゃよくね?
でも語彙力が落ちてるのは気になっちゃう。
増田、Togetterの比率が増えた。とくに増田はアルゴリズム変更前の勢いを取り戻す。
2023年4月 | 人気エントリー入り回数 |
---|---|
anond.hatelabo.jp | 209(14.3%) |
togetter.com | 173(11.8%) |
note.com | 52(3.6%) |
news.yahoo.co.jp | 41(2.8%) |
www3.nhk.or.jp | 39(2.7%) |
twitter.com | 33(2.3%) |
zenn.dev | 24(1.6%) |
www.itmedia.co.jp | 24(1.6%) |
www.asahi.com | 23(1.6%) |
qiita.com | 22(1.5%) |
www.sankei.com | 21(1.4%) |
gigazine.net | 19(1.3%) |
speakerdeck.com | 18(1.2%) |
mainichi.jp | 18(1.2%) |
courrier.jp | 15(1.0%) |
www.tokyo-np.co.jp | 14(1.0%) |
www.nikkei.com | 14(1.0%) |
toyokeizai.net | 12(0.8%) |
dailyportalz.jp | 12(0.8%) |
www.nhk.or.jp | 11(0.8%) |
nordot.app | 11(0.8%) |
nlab.itmedia.co.jp | 11(0.8%) |
bunshun.jp | 11(0.8%) |
newsdig.tbs.co.jp | 10(0.7%) |
blog.tinect.jp | 10(0.7%) |
automaton-media.com | 10(0.7%) |
www.publickey1.jp | 9(0.6%) |
president.jp | 9(0.6%) |
xtech.nikkei.com | 8(0.5%) |
www.techno-edge.net | 8(0.5%) |
www.gizmodo.jp | 8(0.5%) |
shonenjumpplus.com | 8(0.5%) |
diamond.jp | 8(0.5%) |
www.jprime.jp | 7(0.5%) |
www.watch.impress.co.jp | 6(0.4%) |
www.fnn.jp | 6(0.4%) |
www.afpbb.com | 6(0.4%) |
shueisha.online | 6(0.4%) |
nazology.net | 6(0.4%) |
logmi.jp | 6(0.4%) |
www.youtube.com | 5(0.3%) |
www.newsweekjapan.jp | 5(0.3%) |
www.hotpepper.jp | 5(0.3%) |
www.famitsu.com | 5(0.3%) |
www.cnn.co.jp | 5(0.3%) |
www.bloomberg.co.jp | 5(0.3%) |
www.bengo4.com | 5(0.3%) |
www.4gamer.net | 5(0.3%) |
saasis.jp | 5(0.3%) |
nikkan-spa.jp | 5(0.3%) |
gendai.media | 5(0.3%) |
coliss.com | 5(0.3%) |
ascii.jp | 5(0.3%) |
https://arxiv.org/pdf/2305.00833.pdf
Learning to Reason and Memorize with Self-Notes
大規模な言語モデルは、限られたコンテキスト メモリと多段階の推論に苦労することが示されています。
モデルが自己メモを取ることを可能にすることにより、これらの問題の両方を解決するための簡単な方法を提案します。
最近のスクラッチパッド アプローチとは異なり、モデルはいつでも入力コンテキストから逸脱して明示的に考えることができます。
これにより、モデルはコンテキストを読み取りながら情報を想起し、オンザフライで推論を実行できるため、メモリが拡張され、複数ステップの推論が可能になります。
複数のタスクに関する私たちの実験は、推論時に自己メモを取ることにより、トレーニング設定からより長く複雑なインスタンスに私たちの方法がうまく一般化できることを示しています.
1. イントロダクション
Transformers (Vaswani et al., 2017) および同様のバリアントは、シーケンスベースのタスクで印象的な結果を示しています
特に、GPT-3 (Brown et al., 2020) などの大規模な言語モデル (LM) はトランスフォーマーを使用し、質問応答 (QA) などのさまざまな NLP タスクを解決できます。
LM を QA タスクに使用すると、図 1 (上) に示すように、事実情報と質問を含むコンテキスト プロンプトが与えられ、モデルが直接回答を生成します。 ただし、この自己回帰の「ワンステップ」アプローチは、複数ステップの推論タスクと格闘します (Austin et al., 2021; Press et al., 2022a; Creswell et al., 2023)。 これは、バニラ LM が各トークンに対して固定された計算を行い、現在のコンテキストに応じてさらに「考える」オプションがないという事実から生じると主張します。 (2021) 図 1 (中央) に示すように、モデルが質問に答える前に推論トークンを生成できるようにするスクラッチパッドの使用を提案しましたが、完全なコンテキストと質問を読み取った後です。 同様に、一連の思考を促す方法 (Wei et al., 2022; Zelikman*Equal Contributor 1Meta AI. への対応: JackLanchantin <jacklanchantin@meta.com>, Sainbayar Sukhbaatar<sainbar@meta.com>.et al., 2022; Huang et al., 2022) は、モデルをプッシュして、一度に 1 ステップずつ答えを説明し、より首尾一貫した最終的な答えに導きます。 非線形タスク (Fan et al., 2020)、LSTM (Hochreiter and Schmidhuber, 1997) などの再帰型先行モデルが十分に備えられているもの。 Fan et al., 2020; Ju et al., 2022; Hutchins et al., 2022)、しかし、それでも与えられたプロンプトに対して一定量の計算を使用します。 推論と状態追跡メモリがより扱いやすくなります。 私たちの方法である「Self-Notes」により、LM はオンザフライでコンテキスト プロンプトから逸脱し、明示的な推論トークンを生成できます。 図 1 (下) に示すように、スクラッチパッドとは異なり、モデルは生成されたトークンを入力コンテキストとインターリーブできます。 このようなセルフ ノートは、明示的な中間推論ステップと状態追跡用のメモリの両方として機能します。 具体的には、推論ステップで 2 つの事実を組み合わせる必要がある場合、結果として得られる推論をセルフ ノートに書き込んで、将来の推論に使用することができます。したがって、中間推論ステップとして機能します。 たとえば、「アリスは箱を持っています」と「アリスは公園にいます」が与えられた場合、「箱は公園にある」と推測してそれを自己メモに書き、将来のステートメント「鍵は in the box」で「鍵は公園にある」と結論付ける。 さらに、コンテキストをトラバースしながらモデルがエンティティの最新の状態を新しいトークンとして書き込むことができるため、SelfNote はワーキング メモリの形式として機能できます。 たとえば、プログラミング環境では、最初に x=5 を想定し、次に x を 1 ずつ増やします。モデルが x=6 をセルフ ノートとして正しく記述していると仮定すると、元の x=5 ステートメントをそのコンテキストから安全に削除できます。 モデルが x の値について問い合わせられた場合、モデルは既に答えを持っています。
私たちの提案した方法と、スクラッチパッド (Nye et al., 2021)、思考の連鎖 (Wei et al., 2022)、または内部独白 (Huang et al., 2022) などの以前の研究との主な違いは、モデルを許可することです。 各コンテキストステートメントを順番に読み取るときに、複数のメモを明示的に書き出す。 InarXiv:2305.00833v1 [cs.LG] 2023 年 5 月 1 日図 1: (上) ベースライン バニラ LM は、コンテキスト (C) と質問 (Q) が与えられると、回答 (A) を直接生成します。 (中央)スクラッチパッドを使用すると、モデルは質問に答える前に中間推論トークンを生成できますが、コンテキストが表示された後です。 (下) 私たちの Self-Notes メソッドにより、モデルはいつでも推論してメモを取るために入力コンテキストから逸脱することができます。言い換えれば、私たちのアプローチは、将来の推論に役立つ可能性のある情報でコンテキストを補強するスクラッチパッドのインライン形式です。 私たちはこれを、人間が読む方法と同様に、明示的に述べられていない情報を推測するための行間の読み取り (および書き込み) の形式と見なします (van den Broek et al., 2009)。 以前の方法では、モデルが完全なコンテキストを読み取った後に反芻することができ、読み取っている間ではなく、最後に大量の推論を行うように強制されます。
さらに、そのようなポストコンテキスト推論は、推論が開始される前に以前のコンテキストトークンがモデルのコンテキストウィンドウからすでに出ている可能性があるため、メモリとして機能できません。 たとえば、数週間または数か月の対話履歴を持つインテリジェント エージェントを考えてみましょう。 直観的には、最初から考え直すことなく、以前の対話で行った推論ステップを使用できることは理にかなっています。自己メモを生成するようにモデルに教えるために、トレーニング中に、入力の一部としてグラウンド トゥルース自己メモを言語モデルに提供することを検討します。 コンテクスト。 推論中に、トレーニング中に学習した特別なトークンを生成する場合、モデルはコンテキストから逸脱し、SelfNote を生成できます。モデルが Self-Note の生成を完了すると、元のコンテキスト トークンが引き続き供給されます。 これにより、モデルは最後だけでなく、入力トークンの処理中にメモリを推論および作成できます。 また、Self-Notes をトレーニングするための半教師ありおよび教師なしの方法も提案します。多段階の推論と状態追跡を評価するように設計された 5 つのテキスト データセットでこの方法をテストします。 , 2020; Anil et al., 2022)、および 2 つの現実世界のチェス ゲーム タスク (Toshniwal et al., 2022)。 私たちの方法は、明示的なメモ取りを行わない微調整された言語モデルとスクラッチパッドのベースラインの両方よりも優れています.2. 方法シーケンス内の次のトークンを予測する自己回帰変換モデル M を考えてみましょう