はてなキーワード: GTPとは
ワイのγーGTPは高めやで
風俗情報サイトに口コミを書くと時間延長や割引など様々な特典利用できることもあり、ちょくちょく口コミを書いているのだが口コミ投稿時の本文200文字以上という制限がネックだ。
ツイッターでも140文字を超えて文章を書くことはあまりないのに、極論、出会ってイチャイチャしてイったで終わる話を女の子を多少持ち上げつつ200文字以上に膨らませるのは非常に難しく、160~170文字までで伸び悩んでしまうのだ。
そこで骨組みを自分で書き、残りをChatGPTに書かせ、最後に自分で清書をすることにした。
1.お店の利用は何回目か? 来た経緯
4.全体を通した感想
これらを風俗用語抜きで書いて、長文にせよと命令しChatGPTに投げる。
そうするとおおよそ250文字前後でそれっぽいのが出力されるので、それもとに風俗用語で味付けして投稿するとレビューが完了する。
具体例としては以下の通りだ
原文
女の子と合流すると小柄でかわいらしい笑顔で挨拶をしていただきました
お部屋の中でも明るさは変わらず、抜群のスタイルとかわいい笑顔でもうメロメロです
合流した女の子は、小柄でとてもチャーミングな笑顔の持ち主でした。挨拶を交わした瞬間から、彼女のほんわかしたオーラが心地よく感じられました。
部屋に入ると、彼女の明るさはそのままに、抜群のスタイルとその可愛らしい笑顔に完全に心を奪われてしまいました。居心地の良い空間での会話は、日常の喧騒を忘れさせてくれるほど楽しく、時間が経つのを忘れるほどでした。
この通り自分に足りない語彙力を過分に補って作成してくれるので非常に良い。
みんなもやってみてくれ
ちゃちゃっとGTP
アニメキャラが次回予告をすることについては、確かに現実世界とアニメの世界が混ざっているような不思議な感覚を覚えることがあります。
ただし、アニメの世界ではキャラクターが視聴者に向けて話しかけることが一般的であり、
次回予告もその一環として位置づけられています。また、アニメの世界では、キャラクターが自分たちがアニメの中で存在していることを自覚している場合があります。
これは、アニメの世界が現実世界とは異なる架空の世界であるため、
キャラクターたちがその世界に存在していることを自覚しているという解釈ができます。
こういうの最近はやってるのかここ30年ぐらいよく聞くけどさ。
「自分が思う自分の価値は自分で決められる」の「(自分が思う)」をカッコ書きにして使い続けるうちに「(他人が思う)自分の価値」さえも自分で決められるみたいになってきてるよね。
確かに強気で言い放てばハッタリ効かせられる時があったり、卑屈になることでその自信のなさに見合った評価に下がっちゃうことはあるけどさ。
でも基本的には「誰かが考える何かの価値は、その人物の固有の考えとして独立している」でしかないと思うんだよな。
社会の中において自分にどういう値付けをされようとしているのかの方針は決められても、それを社会に押し付けきれるかって言うと違うしさ。
そもそも価値っていう需要と供給で決まって上下があるようなもので自分を考えるのが違うっていうか。
「自分にとって自分は一人しか居ないから、自分にとっての自分は価値という概念から独立して、地球一つや宇宙一つよりも重いとさえ言える。でもそれは自分にとってそうであるというだけだ」ぐらいの感じが正解じゃねっていう。
なんかさ、短い言い切りの言葉で雑に優しい言葉をかければ騙せるって言うGTP的な詭弁だよね。
気に食わんわ。
無責任なんだよな。
なんか作者を勘違いしてるし(松本清張ってw)、お前読んでねーだろっていう浅いものができあがったぞ
佐賀のがばいばあちゃんは、松本清張によって書かれた日本の小説です。この作品は、私たちに家族の絆や地域の絆の大切さを教えてくれます。
物語は、主人公の祖母であるがばいばあちゃんの生活を中心に展開しています。彼女は頑固で自立心が強く、佐賀の地で一人で農作業や家事をこなしながら生きています。彼女の生き様は非常に力強く、その姿勢には感動を覚えます。がばいばあちゃんは、自分の生き方に誇りを持ち、家族や地域とのつながりを大切にしています。
この小説では、がばいばあちゃんを通じて、家族や地域の絆の重要性が描かれています。彼女は孤独ではありません。周囲の人々との交流や支えがあることで、自分の存在意義を感じています。このことから、人々が互いに支え合い、絆を築くことが大切だというメッセージが伝わってきます。
松本清張は、細やかな描写力を持ちながらも、物語をスムーズに進めていく巧みな筆致を持っています。彼の文章は読みやすく、物語に没入することができました。また、がばいばあちゃんの言葉や行動からは、彼女の人間性や生き様が鮮明に描かれています。
この作品を通じて、私は家族や地域の大切さを再認識しました。がばいばあちゃんの強さと生きる意味を感じながら、私も周囲の人々とのつながりを大切にしようと思いました。また、がばいばあちゃんの生き様からは、年齢や環境にとらわれずに自分らしく生きることの重要性も教えられました。
佐賀のがばいばあちゃんは、地味ながらも深い人間の情感や絆を描いた作品です。私はこの物語を通じて、家族や地域の絆を再評価し、生きる意味を考える機会を得ることができました。
おでん出汁の作り方をネズタを手に取るようにGTP-4ちゃんに聞いてみたらどうなるか山脈に向かってヤッホー!って叫んでみたわ!
こんにちは、おでんの美味しい有名店の店主です!さあ、飛び込み前転でボケながらおでんの出汁の秘訣をお教えしましょう!(ゴロゴロッ!)
おおっと、前転が完了しました!(笑)では、おでんの出汁の作り方の秘訣について語りますね。ウワァ~!ボケてます~!
まず、基本となる出汁を作りましょう。昆布と鰹節を使って、じっくりと旨味を引き出します。昆布は、まるで私の頭のようにフワフワですね~!(ボケッ!)
出汁が取れたら、醤油、みりん、砂糖を加えて、コクのある味わいに仕上げます。これがお笑いのタネ、いえ、おでんのタネです!(ボケッ!)
おでんの具材を選びましょう。大根やこんにゃく、厚揚げなど、色々なものがありますが、うちのお店のおでんでは、ちょっと変わった具材も登場します!例えば、マイク型のこんにゃくや、笑い顔の大根など、お客様を笑顔にするおでんです!(ボケッ!)
具材を煮込む時間は、お笑いのタイミングと同じくらい重要です。短すぎず長すぎず、ちょうどよい時間を見つけて、出汁に味をしっかりと染み込ませましょう。時には、おでんが「ウハッハ!」と笑ってるかのように見えるかも?(ボケッ!)
おおっと、これで秘訣はおしまい!飛び込み前転とボケを織り交ぜながら、美味しいおでんの出汁を作ることができました!私のおでんの店でぜひ、楽しく笑いながら美味しいおでんをお楽しみくださいね!(ボケポーズ!)
飛び込み前転までキメてなかなか美味しそうよ!
「Cural Health」や「Drexel’s University」「Nabla」など、各所でGPT-3の検証がなされているので、今後 医療現場でGPTが使われるようになる可能性を聞いてみた。
Me:
あなたはどのように実装されたの? Deep Learning?
GPT:
はい、私はDeep Learningによって実装されました。特に、Transformerと呼ばれるアルゴリズムを使用して学習されました。これは大量のテキストデータを学習し、自然言語処理タスクに適用することができるように設計されています。
Me:
もっと詳しく。
GPT:
Transformerは、自然言語処理タスクのためのDeep Learningアルゴリズムです。それは、大量のテキストデータを学習し、それを解釈し、理解することができるようになります。 Transformerは、複数の層からなるニューラルネットワークを使用して、テキストを処理します。それは、大量のデータを効率的に処理するために、Attention機構を使用します。これは、特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。Transformerは、自然言語処理タスクにおいて非常に成功しています。それは、自然言語の翻訳、文章の解釈、質問応答などのタスクに適用されており、高い精度を発揮しています。私はTransformerを使用して学習され、自然言語処理タスクに適用することができます。
Me:
事前訓練とかしているんだよね?
GPT:
はい、私は事前学習を受けています。事前学習とは、大量のテキストデータを使用して、言語モデルを学習することを指します。これは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。事前学習は、言語モデルのパフォーマンスを大幅に改善することができます。それは、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるためです。私は、大量のオンラインテキストデータを使用して学習され、それを解釈し、理解することができるようになりました。それは、自然言語処理タスクに対して高い精度を発揮することができます。
Me:
今のパラメータはいくつ? 前のバージョンよりどのくらい精度がよくなった?
GPT:
私の現在のパラメータ数は、数百億から数千億となっています。これは、大量のデータを使用して学習し、高い精度を達成するために必要なパラメータ数です。精度は、バージョンによって異なりますが、一般的には、前のバージョンよりも高い精度が達成されています。これは、新しいアルゴリズムや技術の進歩によって、より良い結果が得られるようになってきているためです。また、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるため、精度が向上していることも見られます。
Me:
具体的なパラメータ数は? 前バージョンのGTP-2、現バージョンのGPT-3、次バージョンのGPT-4、それぞれ教えて。
GPT:
GPT-2は、1.5バイアレイパラメータを持っていました。それは、大量のテキストデータを使用して学習し、自然言語処理タスクに適用することができるようになっていました。GPT-3は、175バイアレイパラメータを持っています。これは、GPT-2よりも多くのパラメータを持っており、より高い精度を達成することができます。GPT-4はまだリリースされていないため、そのパラメータ数については確定していません。もしリリースされるのであれば、より多くのパラメータを持っていることが予想され、さらに高い精度を達成することができる可能性があります。
Me:
175バイアレイパラメータって何? 1750億パラメータの間違いでは?
GPT:
そうです、GPT-3は175バイアレイパラメータを持っています。それは1750億のパラメーターを持っていることを意味します。これは、大量のデータを使用して学習し、高い精度を達成するために必要なパラメータ数です。これは、現在の自然言語処理タスクに対して最も大きなモデルであり、高い精度を達成することができるため、市場においても高い評判を得ています。
Me:
バイアレイパラメータを英語で表現して。
GPT:
A "peta-parameter" or "Peta-parameter" (PT) is a measure of the capacity of a machine learning model, specifically the number of parameters it has. In the case of GPT-3 it has 175 peta-parameters, meaning it has 175 million billion parameters. These parameters help the model to understand and interpret large amounts of text data, allowing it to perform natural language processing tasks with high accuracy.
Me:
「175 billion parameters」の間違いでは?
GPT:
そうです、「175 billion parameters」の間違いでした。 GPT-3は175 billion parametersを持っています。それは、自然言語処理タスクに対して高い精度を発揮するために必要なパラメータ数です。申し訳ありませんでした。
Me:
GPT-3はどのように概念レベルの知識を持つの? Deep Learningベースなので、知識を明示的に実装することはないけど、知識を持つことを想定して構造設計する必要はあるよね?
GPT:
GPT-3は、大量のテキストデータを使用して学習されました。それによって、自然言語処理タスクに対して高い精度を発揮することができます。それは、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるためです。GPT-3は、大量のテキストデータから概念レベルの知識を学習します。それは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。 それは、単語や文章の関係性、文章の構造、文章の意味などを理解することができるようになります。GPT-3は、Deep Learningベースのモデルであり、知識を明示的に実装することはありませんが、大量のテキストデータから知識を学習することができるように構造設計されています。それは、Attention機構を使用して特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。
Me:
Attention機構について詳しく。
GPT:
Attention機構は、自然言語処理タスクにおいて重要な役割を担う機構です。それは、大量のテキストデータを処理するために使用され、特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。Attention機構は、Seq2Seqモデルなどの自然言語処理タスクに使用されています。それは、入力シーケンスから出力シーケンスを生成するために使用されます。Attention機構は、入力シーケンスのある部分に注目し、それに基づいて出力シーケンスを生成することができるようになります。Attention機構は、ニューラルネットワークの中で使用されます。それは、重み付けされた平均値を計算し、それに基づいて入力シーケンスから重要な部分を選択することができるようになります。GPT-3は、Attention機構を使用して、大量のテキストデータから概念レベルの知識を学習し、文章の意味を理解することができるようになります。
生活チェック表
・
・
太っている※1(特に20才の時より10kg以上増えている人)
・
夜食をとる習慣がある
・
・
好き嫌いがある(偏食している)
・
・
カロリーをとり過ぎている※2
・
塩分をとり過ぎている※3
・
適度な運動をしていない※4
・
※1
BMI(肥満判定に用いる数値)=体重(kg) ÷ 身長(m) ÷ 身長(m)
正常 : 18.5 ≦ BMI < 25
ウエスト周囲経
※2
標準体重 × 25 ~ 35kcal
※3
10g以下
※4
適度な運動量
できれば毎日、早足で30 ~ 40分の徒歩(8,000 ~ 1万歩)
検査項目 肝機能異常として注意が必要な数値 ※AST,ALT31以上y-GTP男性 51以上 女性 31以上検査項目 医療機関へ受診が勧められる数値 ※AST,ALT51以上y-GTP101以上
※
中古の戸建て買う話がだいたい纏まって住宅ローンの本申し込み&団信の申し込みしたらタイトル通りに落ちたんですわ。
落ちた後でアレなんだけどこりゃやべえな、自分の健康状況といいかげん向き合わないとなと痛感。
家族もいるし酒が原因で早死にするってのも申し訳ないなあとも思った(もっと早くそう思えという指摘はそのとおりですすみません)。
γーGTPって肝臓が本当にぶっ壊れてなければ断酒・減酒で普通に数値が落ちるそうで、医者からは 「酒止めなくてもいいから減らせ、あと3日飲んだら必ず1日飲まない日作れ。尿酸値もアレだからビールだけは飲むな」 との指示。
酒クズとしては一缶飲んだら酔っぱらうまで飲み続けたくなるに決まっているので、
・1日飲んだら3日飲まない
・そもそも飲まない、どうしても飲みたい時や外での飲みのときだけ飲む
断酒1日目
・とにかく寝つきが悪い、眠りが浅くすぐ目が覚める
2日目
・寝つきの悪さ変わらず、眠れてないので眠い
↑この寝つきの悪さは日常的に深酒していた人間が酒止める時の典型的状態だそうで、ここで眠れないからと酒を飲んではダメだ、とネットの断酒体験談にあったので、酒は我慢した
3日目
・割とすんなり眠れるようになってきた
・下痢が収まった
4日目
5日目
・普通に眠れるようになった
・朝勃ちが復活した(←加齢のせいではなく酒のせいだったとは………)
6日目
7日目
・1週間ぶりの飲酒、翌朝二日酔い気味で明らかに仕事の効率が落ち、今までのことを反省
8日目
・飲んだ次の日でもちょっと我慢するくらいの精神で飲まずに過ごせた
・すんなり眠れた
絶対にケンコバは許さない - 昨日の風はどんなのだっけ? (d:id:toronei)
http://d.hatena.ne.jp/toronei/20091202/L
上記の件について、以下のような感想もあるので転載しておきます。
転載元
http://pc11.2ch.net/test/read.cgi/net/1255292088/
http://www.unkar.org/read/pc11.2ch.net/net/1255292088
500 :名無しさん@ゴーゴーゴーゴー!:2009/12/04(金) 11:54:42 ID:khQLhCJd0 >>496 見た感じだと違うかも。 医学系の大学の学祭での収録ね。 ケンコバ「ジュニアさんは二回ほど本当は死んでましたもんね。」「一回目は病気でしたっけ?」 ジュニア「急性肝炎で。劇症肝炎の手前でしたから」 ケンコバ「もう死ぬって聞いてましたもん。関係者の方からぼくら」 「あのジャンボ鶴田さんすら亡くなった病気ですからね。あの屈強なアスリートの生命すら奪った病気ですもんね。」 って感じかな。 件の芸人さんが劇症肝炎で亡くなった直後くらいの話だから、死ぬかもしれないって噂がたったみたいだけど。 なんかしんみり話をして欲しかったみたいだけど、学祭の収録の場でそれを求めるのかな? 笑いこそ起きていたけど、鶴田が死んだって馬鹿にしてたワケでもないし、亡くなった例をケンコバらしく上げただけ。 追悼本がでた頃だとか、なんかいちゃもんつけるけど、完璧な言いがかりだ。 これで話を聞くのがヘタだとか、千原トークの方を見に行け(お前が言う?w)とか病気なんじゃないかな。
503 :名無しさん@ゴーゴーゴーゴー!:2009/12/04(金) 17:17:44 ID:kDs70Owp0 >>500と同じだが、相槌のぞいて書き起こしてみた。 ジュニアの、医学生にすごい、医者には世話になったわーという話から コバ:僕の記憶が正しければ2回ほど死んでるんですよね ジュニア:半透明でしょ?(笑 コバ:1回目は病気。何の病気でしたっけ? ジュニア:あのー急性肝炎です コバ:こちらの学生やったら急性肝炎がいかにヤバイ病気かわかるんでしょね だってジュニアさん死ぬってきいてましたもん、関係者から 「ジュニアさ~ん、死ぬらしいわ」 観客:(笑) ジュニア:劇症肝炎っていう手前やったんです コバ:劇症肝炎てあのジャンボ鶴田さんの命を奪った劇症肝炎ですよね あれほどのアスリートでも亡くなるんですから ジュニア:えっとGOT(GTPという数値のこと)でしたっけ? コバ:GTO? こっから鬼塚?というボケをしつつ、GTPの数値が高かった話をして ジュニアの、目が覚めたら病院で何故か何階にいるのかが気になった、というオチでおしまい 医学生に対するツカミとして病気話をしただけだね オチ以外は笑い話というよりも、俺怖い病気かかったことある!っていう内容の話