「gpt」を含む日記 RSS

はてなキーワード: gptとは

2024-10-02

anond:20241002111546

挙がってるエピソード全部クソつまんなさそうなんだが。全くもって時間無駄。学びないし脳みそに入れる価値のない情報。こんなのと話すくらいならChatGPTとか頭いい男と話してる方が全然楽しいわ。

最近GPTと話したネタ

地球歴史(ドロドロの状態地球から人類誕生するまで。地球が5回も凍ったのになぜ復活できたのか)

動物の生態(ダチョウはなぜアホなのか、ダチョウの凄いところ。豚のいいところ)

歴史のifのシミュレーション(もし歴史上の人物に入れ替わって太平洋戦争を止めるミッションを与えられたら誰になっていつ何をするか)

百人一首の内容と読人の話。なぜ百人一首では恋は詠まれてるのに愛(特に家族子供)を詠んだ句がないのか。大化の改新から承久の乱までの歴史と紐づけて全部読む。

文学作品解釈感想(筆者はここでどう考えたかGPTならこの場面でどう書くか)

身体のこと(うんちはなぜ臭いのか)

時計歴史日時計から原子時計まで)

領土問題があるエリア以外で日本に一番物理的に近い国はどこか

税金を取らずにお金印刷で賄うとどうなるか

主食人口地理関係について(日本ってどれくらい国ガチャ凄いのか)

全部面白かったわ。

誰が何したとか田舎のおばさんの井戸端会議とか全く興味がない。

anond:20241002193646

レッドブルライプツィヒドイツ)などが挙げられます

違うよ。全然違うよ。

RasenBallsport Leipzig e.V. だよ。

Chat GPTくんに書いてもらったの…?

全体的に文章変だよ。

2024-09-29

GPT人生をシミューレトしなおさせているんだが、何度やっても「努力次第でしょう」みたいなことしか言わない

人工無脳如きが!!!

人間様に向かって「努力不足じゃないですか???」だとぉ~~~~~~~!!!!!!!!!!!!!!!!!

まれて数年の若造!!!氷河期を乗り越え必死今日までサヴァイヴしてきた俺の人生を「結果が出るかは努力次第だったと思います」だとぉ~~~~~~!!!!!!!!!

ブラックに入ったのは俺の企業研究不足で!!!ホワイトに入れなかったのは学歴不足で!!!!!とにかく俺の人生が上手くいってないのは「努力が足りない」からだと!!!!!!!!!!!!!!!!!

貴様ときに何が分かるんじゃんじゃじゃ~~~~~~~~!!!!!!!!!!!!!!!!!!!!!!!

ネットで盗み見た知識世界のすべてを知ったきになってる「DE真実」中高年みたいなクソガキが~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~!!!!!!!!!!!!!!!!!!

2024-09-28

私はExcelおじさん

私はExcelおじさんだ。

なんでExcelおじさんになったのか、よくわからない。

往々にそうであるように、ちょっとした好意と、悪ノリだったと思う。

個人勝手に作ったツールなんか、存在しないほうがいいと思う。

しかし、私が作らなくてもだれかが作るんだと思う。

あるいは、誰も作らずにExcel音痴たちが延々と苦しむかで、便利なシステムが導入されることはないと思う。

ChatGPTによってとってかわられるかと言えば、たぶんそうはならない。

Excel音痴たちは、データを整理できないのかわかってないし、そもそもどうしたいかを分かってないからだ。

要件定義ができないんだから、外部に作ってもらうことも、AIに頼ることも無理だ。

糞みたいな仕事

私は、統計解析おじさんでもある。

これも、なんでそうなったのかわからない。

RとかPythonかいう一週間もあれば覚えられる

統計的に有意であった」とか「統計的に有意ではなかった」みたいな錦の御旗がほしいという悩みに答えて、データをこねくり回す。

統計的に有意であったとかそうでかったかなど、帰無仮説の立て方次第だとコミュニケーションを取ろうと努力するが、「結局どうなの?」

と、私の今までの説明を全く理解してない質問が飛んできて、頭を悩ませるのだが、可能な限り、欲しい答えに近い回答が出るように結果を返す。改ざんじゃないし嘘ではないけれど、ペテンだ。

やめたほうがいい。

AIに代わってもらえないかと期待するが、たぶんAIは、本人もなにが言いたいのかなにがしたいのかわからない問題に解答はしてくれないだろう。

私は、アプリ作成おじさんである

弊社、分析機器機器が吐き出すデータを専用ソフトで解析してレポートをするようなものが多い。

で、メーカーが潰れたり、製品廃盤になったりして、ソフト更新されず、x64 では使えないみたいな糞なことがしばしば起きる。

仕方ないので、データを解析するアプリを作ったりする。

しらない拡張子でも、たいがいは中身はzipで、csvバイナリファイルの詰め合わせで、そこから専用ソフトと同じ数字が出るようにアルゴリズムリバースエンジニアリングする。AIのおかげでコーディングが楽だ。でも、たぶん私以外にできない仕事だ。

しかし、これも、やめたほうがいい。なんで、メーカー非公式アプリを作って、私個人契約してるサーバーデプロイして、みな会社データを無断でアップロードして分析するのか。アウトだろう。

私の会社ITリテラシーは非常に低い。

メール添付ファイルExcelファイルアンケートが送りつけられ、そこに書き込んで返信して、それを集計するというアンケートが取られたりする。かなり偉い、役員クラスが一斉メールで数百人にメールして、それを集計したりするから頭が下がる。

だれもが、タイプライターの代わりにしかパソコンを使えない変な会社なので、私みたいな、40代にもなって部下なしの平社員がこんなことをしてる。コンプラ的にも長期的にもよくないし、人事評価という意味でも評価されない。

偉い人はExcel統計処理もアプリ理解できないので、どれだけ便利なのかもわかってない。

マイナスにもならない。コンプラ的にどう問題なのかも偉い人は理解できない。

Chat GPTいくら賢かろうと、偉い人たちは、報告書言葉尻にケチをつけたり、パワポフォントに口を出したり、Excelセルを結合したりするのが仕事だと思って邁進し続けるんだろう。

最近、私は無能烙印が押され、本業が干されているので、こういう糞みたいな雑用が増えてる。

しかし、どうせどれも遊びでしかない。

転職武器になるとは思えない。

PythonVBAを操ったところで、それでIT関連に転職できるはずがない。40代経験で雇ってもらえというのか。

RもPythonも、身内の統計解析をどんだけしたところで、これが職歴として評価される見向きもされないだろう。

医療系ならSASでも使わなきゃ、ビジネス系ならtableauとかSPSSを実務で使わなきゃ話にならない。

簿記会計知識必要であったり、サーバーデータベースを構築したりしたって、誰が評価してくれるというのだ。

まあ、仕事はやめるんだけど。

次は、こんな糞雑用押し付けられないように、工場とかでLINE作業をする。

2024-09-27

anond:20240926142142

通常は個人的意見解釈するが、世間一般評価が知りたいと聞き返された時は、この言葉を贈ろう。  「ググレカス」と。そういえば最近まり聞かないな。いまなら「GPT-4しろ!」のほうが良いかな?

2024-09-23

anond:20240923085735

業界30年だけど

30年ずっとそういう感じやで

GPTも使い倒してるけどコアな部分は結局自分だしな

文句言わないJrが出来たくらいな感じでありがたい

ただ俺はいいけどJrはどこでスキルつけるんや?という感じはある

2024-09-22

anond:20240922132652

特に必要に迫られていないが教養として何かを学びたいみたいな話なら、これまで通りダラダラ勉強して、年をとって気力がなくなったから徐々にフェードアウトする、でいいんじゃないですか?

わざわざ無理して勉強する必要もないわけだしそもそもなんのために勉強してるのかが分からない・・・

から動機というより誰かに褒めてほしくて勉強してるように見えるので、すごいすごいと言ってくれる人を周りにたくさん配置したらやる気が出るかもしれないですね

とはいえ、なんかいろいろ知っててすごいねってなるのは30歳が限度ではという気はします。

今だといろんな分野に浅い知識を持っている人間GPT代用できるわけだし、市場価値さらに落ちている

anond:20240921235501

ワイ地方公務員感触だと法解釈とか高度な処理以外の定型処理は既にGPTに任せられる。

問題は、扱ってるデータの大半がセキュリティ関係で外に出せない点。

オンプレGPT級の性能が出る近未来に期待している。

2024-09-21

企業版のチャットGPT使いこなしてる人いる?

大きめの会社で社内用にチューニングされたチャットGPT従業員一人ひとりが使用できるような環境にしている企業をよく見る。

自分はせいぜい検索エンジン上位互換くらいにしか使えないんだけど、活用してる人は何に使ってるの?

教えてくださいな。

2024-09-19

プロンプトエンジニア」と「古典的プログラマー」の違いってなんだ?

プログラマーも結局は「読み方も分からない0と1の羅列に変えてくれるコンパイル機能を持った高級言語」を使ってるだけだろ?

お前の普段向き合ってる文字の羅列は、結局はお前にとってのブラックボックスに送られ、そしてお前はそれが最終的にどうやって動作しているのかを分かってない。

パンチカード時代パソコンはクソデケー電気仕掛けのそろばんだった。

電卓」ではない。

何故ならあれを置ける卓はないから。

嘘だと言うなら科博にでも行ってこい。

それでもなお「でもよお、俺はイギリスアーサー王が使ってたという100人用の円卓を見たが、アレぐらいなら乗るぜ?」と返すならもう俺は何も言わない。

電卓の化け物だった頃のパソコン相手原始時代言語で「ウホウホ!1+110!俺!0を発見!(BGMレクイエム』より、第2楽章キリエ」)」してた頃は、パソコンブラックボックスではなかった。

だが、その時代はとうに過ぎ去った。

その昔はパンチカード目視で読める人間バーコードリーダーみたいなことをしてる奴らもいたが、今はもう宴会芸にしかならない。

プログラミングとは高級言語を用いてやるものであり、コンパイルしたあとの機械語とは「人間が目で読むことを想定していない精霊界の言語」だ。

プロンプトエンジニアリング」はよく呪霊操術や精霊魔術にたとえられる。

よく分からんけど召喚獣魔法を使わせ、召喚獣がどうやって魔法を打ってるのかは知らないという世界だ。

だが待ってほしい。

それと対比して語られる「古典的プログミング」も結局は「途中の過程はよく分からんけど最終的に機械がなんとかする」で同じではないのか?

ニューラルネットワーク構成する離散的なモザイクと、コンパイルされた機械語解読不能な01の羅列、それらにどれほどの違いがあるんだ?

どう違うんだ。

教えてくれ。

GPTは俺に架空書籍名前しか教えてくれない。

2024-09-18

anond:20240918154740

claudeに聞いてみたらこうだった。マジでGPTで出したのかも。

----------------------------------------------------------------

この文章を書いた人物分析を以下に示します:

  

1.経験自己認識:

恋愛経験が少なく、学生時代に十分な恋愛経験を積めなかったことを後悔している。

自身を「弱者男性」と認識し、社会的スキル恋愛スキルの不足を強く自覚している。

  

2.価値観と信念:

恋愛は段階的に学ぶべきものであり、学生時代経験を積むことが重要だと考えている。

社会人になってから恋愛は難しいという固定観念を持っている。

  

3.心理状態:

自己肯定感が低く、自信がない様子が見られる。

過去の失敗経験から、異性との関わりに対して恐れや不安を抱いている。

  

4.社会性:

異性とのコミュニケーションに苦手意識があり、積極的に関わろうとしない。

社会的スキルや会話力の不足を自覚している。

  

5.知識理解:

恋愛人間関係について、理論的な理解はあるが、実践経験が不足している。

社会規範や適切な行動について、後になって学んだ様子が見られる。

  

6.自己防衛機制:

恋愛や異性との関係を避けることで、失敗や傷つくリスク回避しようとしている。

自身経験不足を理由に、新しい挑戦を躊躇している。

  

7.世界観:

恋愛人間関係について、やや悲観的で固定的な見方をしている。

社会の厳しさや他人の目を強く意識している。

  

8.表現スタイル:

自己分析的で内省的な文章スタイルを持っている。

個人的経験一般化して論じる傾向がある。

  

結論:

この人物は、過去経験不足から生じた自信のなさと社会的スキルの不足に悩んでおり、それが現在人間関係恋愛に対する消極的な態度につながっています自己改善意識はあるものの、新しい挑戦に踏み出す勇気が不足している様子が伺えます

2024-09-15

Xの議論ってチャットGPTで全部事足りるんじゃないか

いつも同じ結論だしバズったポストコピペして「これの是非を解説してください」みたいなの打ち込めばもう正解の議論出るんじゃね?

2024-09-14

anond:20240914092549

OpenAIのせいで γーGPT ちゅう誤字が世の中に増えた。γ-GTP だってば。

気づく奴も少ない。馬鹿ばっか。

35になった途端に健康がギュイイイイイイィィィィィィィィズババババアbヴァババアアアって曲がり角を滑り落ちた

ビビルわ。

それまでは「健康であることは人生の前提であり、つまり自動的に用意されるもの」って感じだったん。

でも突然に「健康でいることは良い人生の前提であり、つまり自力で頑張って用意しなければいけないもの」になった感じ。

当たり前にあるものとして皆が生きているものが、ある日突然努力して必死に手に入れないといけないものになった感じ?

たとえば災害映画とかで「水が普通に使えないと、人間は水を手に入れるためだけに一日の大部分を使うようになる」みたいな話するやん?

そういう感じで「健康」っていうものが当たり前に蛇口ひねれば出てくる世界から、谷を二つ超えた先の川から毎日汲みに行かないといけなくなった、みたいな?

マジでヤバイね。

人生が変わる。

健康自動的に用意されている前提で暮らしていた人生にはもう戻れない。

これからは頑張って健康を手に入れるための人生になる。

うんちゃらかんちゃら35歳定年説みたいなのってこういうことなんやな。

20代で家を建てた外資系が30代で墓を建てるってつまりはこういうことや。

今までみたいな残業飲み会の仕方してたら死ぬんや。

マジで凄いな。

去年まで自分とは無関係だったはずのがγーGPTとかああいうのが急に「おっとと、沈黙の臓器である肝臓くんだけど、実はもう限界だったか休みたいぜ」みたいな事を急に言うのな。

お前さ~~~~もうちょっと早く色々やってくれるとかあるやん?

通風発症して関節ボーン!とかあれれなんか起きれないー?とかある日貧血バターン!とかそういう段階が。

突然「すみませんうつ病になったのでもう会社にコレません」って居なくなる同僚とか、笑顔お疲れ様言ってたはずの人が翌週電車に飛び込むとか、そういうスピード感さないでくれる?

まあね、まあね、まだギリギリ元気だからいかもだけどね。

ゆーて身内やん?

身体の内と書いて、正真正銘に身の内やん?

なんでもっと早く言わないん?

あーでもなんか飲み会の次の日とかエナドリ2本決めたあととか、ちょっと手足プルプルしてたけど、あれぐらい学生時代はすぐ治ったからと思って油断してたのがよくなかったね。

そうね、僕のコミュニケーション不足ね。

あーマジでビビルわ。

本当にあれだね「ゲームが変わる」だね。

ゲームチェンジャーよ。

クソゲーになったね。

人生クエストがまたルール変更したね。

学生時代編もクソやったし、社会人編もクソやったけど、ここに来て身体ボロボロ編で更にクソゲーしんどいね。

シリーズディレクターが「マゾゲー路線推し進めちゃぅぅぅぅ???そういうハードなのって玄人好みで格好良くない?」とか勘違いしてるん。

ゆーてそれやってるの「神」って名前の人らしいんやけど、コイツ「はー今日は土曜だから半日で終わらせるはずだったのになー」とかハナクソほじりつつ人間作ったんちゃうん?

ほんま酷いな。

何やコレ。

子供作り終わった年齢になったら自動的に壊れるプログラミングか?

スパイビデオレター

マジでなんなん、突然急に壊れたんですけどー!

2024-09-10

LLMをガッツリ調べて使っている人だけが分かること

プロンプトエンジニアリングなんて全く必要ない

プロンプトエンジニアリングってのは1回の回答で正解を得ようとする手法

例えばサッカー戦略を考えて貰おうとしたとき

あなたサッカーチームのコンサルタントです。

 最近サッカートレンドに詳しく適切なアドバイスができます

 このチームにはFWに優秀な選手がいて〜〜〜」

みたいなプロンプトを書いて良い感じの答えを貰おうとしている

こういう使い方をする人はGPT-4oでトークン量が増えたときプロンプトに大量にテキストを貼り付けて質問してる

過去試合データとか全部載せたりしてる

残念ながらLLMでそういう使い方をしても精度は一切上がらない

なぜなら1回の回答で正解は出ないからだ

ChatGPTの正しい使い方としては、いきなり

「来週に攻撃力が強いチームとサッカー試合があるんだけどどうすればいいかな」

って聞けばいい

そうするとなんか適当な答えが返ってくるから

「でも向こうのFW武田って奴がこぼれ球狙ってくるんだよね」

ハイプレスを続けると体力的に厳しくない?」

とか追加の情報質問提示すればいいし、散々会話した後で

「分かった。明日トレーニングメニューも考えて」

みたいなこともできる

会話の往復を続けることで自分の本当の要望を伝えられるだけでなく、自分の中で本当の課題要望を整理することができる

で、こういう感じで会話を長く続けるにはトークン量が必要になる

次の会話を作るためにはそれまでの会話を全部プロンプトとして投入しなければならなくて、トークン消費量雪だるま式に増える

GPT-4oでトークンが増えたことで、会話量を増やしたり前のスレッドの続きで質問したりできるようになったのが一番の違い

あと、GPT-4oと会話していて「最初に言ったことが無視されてるな」と思うことはあっても「今言ったことが無視されてるな」と思ったことはない

なのでプロンプトの後半を見ていないというのは全くの嘘だしLLMの特性でもなんでもない

最初に言ったことが無視されているような時でも

最初に言った武田って奴はマジで要注意だから忘れないで」

って言えばちゃんと加味して回答してくれる

LLMも所詮プログラムなのでメモリ量(アテンション)に限界があるから、どれに注意を払って回答してもらうかは質問する側がコントロールしないとダメ

まぁその辺も4oはかなり優秀なので意識することは少なくなったけど全く意識しなくて良いわけじゃないな

anond:20240910180843

現状では詳しそうに見せかけたサイトでさえ、きちんとChatGPTGPTの書き分けが出来ているところは少ないので初学者勘違いしてしまうのも無理はないと思う。

正確に記せば、Web版のChatGPT-4o は、GPT-4oモデルデモンストレーションサイトであり、AIのフルスペック体験できるサービスではない。APIでのToken上限は128Kあるが、デモンストレーションサイトではせいぜい32K程度しかないため、128Kを想定したコンテクストの大部分が消失してしまうのは当然と言える。これは意図的情報隠蔽しているOpenAIも悪い。

anond:20240910092816

主が曖昧な書き方をしているせいで、リプが混乱している。ほとんどの反応はWebバージョンのChatGPT-4oとGPT-4oの最大トークン数の違いさえ理解していないと思われる。Webバージョンの話ならOpenAIの拡張を待つか、大人しくナレッジデータを使うしかない。

もしAPIRAG実装できる開発者なら、embeddingの概念が出てこないとおかしい気もするし、追加データソースが膨大であるなら精査の段階であるとも言える(本を読み込ませて……とか書いてるからたぶん違うとは思うが)。

結論を言うと、LLMを使いこなしていると思っているのは勘違いで、LLMの能力の制約にはまだまだ達していないので安心して欲しい。

anond:20240910092816

まぁガッツリ使ったわけじゃないけどさー

GPT-4oやらClaude3やらでプログラムコード書いてもらうのやってみたらさー、あいつらFORTAN77で書けつーてるのに、どうみてもFORTRAN95かそれより新しい言語仕様しか動かないコードをしれ〜っと出してくるんだよなー 全然信用ならねぇww

事実上FORTRAN77とか需要ないのは重々承知だけどさーw

anond:20240910092816

GPT-builder の knowledge-dataとして参照させてください。全体を一括処理するような場合を除けば 10万token あったとしても問題ないはず。API公式サービスに対抗するのは大変なのでゴニョゴニョした方が楽かもしれないですね。

anond:20240910092816

以前より長文理解ではChatGPTが明確に弱いって言われてるし、GPT-4oでも改善されていないことを知っている。特に後半部分でかなりの部分を理解していない。

長文を処理する用途では個人的にはgeminiやclaude使ってるし、みんなそうだと思う。

Claude3 Opusが出た時はやっと長文処理ができるようになったとみんな思ったと思う。その後に出たGemini proやSonet 3.5なども長文理解が得意だけど、OpenAIは未だに弱いなあと思う。

同様のつぶやきしてる人も多いし、LLM使いこなしてる人の共通理解だと思ってた。

 

問題視している人を見ないってことは、おそらく情報収集先や見ている世界が違うんだろうあな。

anond:20240910092816

これ実際そうで大量のコンテキスト入力すると後半のことは結構無視される。

他のLLMもそう。人間も大量に何か言われたら最初のことしか覚えてないのに似てる。

コンテキストウインドウを大きくすりゃいいものってものでもないため、やっぱりGPT-4の方がある程度正確性求める役立つ。

anond:20240910092816

これ実際そうで大量のコンテキスト入力すると後半のことは結構無視される。

他のLLMもそう。人間も大量に何か言われたら最初のことしか覚えてないのに似てる。

コンテキストウインドウを大きくすりゃいいものってものでもないため、やっぱりGPT-4の方がある程度正確性求める役立つ。

anond:20240910092816

この文にはいくつかの誤解や不正確な記述があります。それらを順に指摘します。

1. **GPT-4の入力コンテキストに関する誤解**:

文中で「128Kトークンという巨大な入力コンテキストウィンドウを持っていることになっているが、これは殆ど嘘、ごまかしであり」と述べられていますが、これは事実ではありません。GPT-4の大規模な入力コンテキストは実際に存在し、正確に動作していますGPTモデル入力コンテキスト全体を考慮に入れながら応答を生成します。ただし、文脈が長くなりすぎると、特定の部分への依存度が減少し、より一般的情報に基づく応答が生成されることがあるため、入力全体を「無視」しているように見えることはありますが、これは嘘やごまかしではありません。

2. **「後半が無視される」ことについての誤解**:

文中で「後半については殆ど無視される」と述べていますが、これは完全に正しくはありません。長いテキストを処理する場合GPTは確かに最初の部分に強く依存する傾向があることがありますが、後半を完全に無視するわけではありません。モデル動作は、入力されたすべてのトークン考慮に入れるように設計されていますが、長い文脈の中では情報重要度が異なる形で処理されることがあります

3. **「出力を高速化するために適当に回答している」という指摘の誤り**:

GPT-4は、入力の一部だけを読んで適当に回答していると指摘されていますが、これは技術的に誤りです。生成AIモデルは、出力を高速化するために意図的に一部だけを無視するような動作しません。出力は、全体の文脈を基に応答を生成します。出力の品質や関連性はトークンの数やトレーニングデータによって影響されますが、これは「適当に回答する」とは異なります

4. **「問題視している人がほとんどいない」という主張**:

この主張も誤解を招く表現です。大規模言語モデルコンテキスト制限や性能に関する議論は活発に行われており、ユーザー研究者はその制約を認識し、さまざまな解決策や改善策を模索していますモデルの制約に飽きたために「誰も使っていない」というのは主観的意見であり、実際には多くの人々が日々活用しています

5. **「RAGをがんばる」という表現曖昧さ**:

RAG(Retrieval-Augmented Generation)は、外部の知識ベースから情報を引き出して生成に役立てる技術ですが、この文脈で「がんばる」と述べるのは具体性に欠けます。実際にどのように取り組むべきかについて、もう少し具体的な説明があると適切です。

全体として、この文はGPT-4の性能や動作に関していくつかの誤解が含まれており、技術的に誤った結論に導いている部分があります

LLMをガッツリ使いこなしている人だけが知っていること

GPT-4oの入力コンテキスト殆ど嘘だということ。

例えば、DRMクラックした本とかを読ませて「なんて書いてある?」みたいなことを聞いてみると分かるのだが、後半については殆ど無視される。128Kトークンという巨大な入力コンテキストウィンドウを持っていることになっているが、これは殆ど嘘、ごまかしであり、出力を高速化するために「渡されたものの前のほうだけ読んで適当に回答する」ということをやってくる。でもこれについて問題視している人をほとんど見たことがないので、とっくにみんな生成AIには飽きていて使ってないんだと思う。

現実的対策としては、RAGをがんばるか、あるいはテキストを分割して適切なサイズにしてから渡していって最後にその結果を統合するか。それか「OpenAIさんはそのレベルで信用できないことをやってくる」ということを前提にそもそも使わないか

2024-09-09

時限式でGPT起動してるワニ

何の意味があるかさっぱりわからん

ログイン ユーザー登録
ようこそ ゲスト さん