はてなキーワード: ファインとは
前回紹介したAnythingv3を投稿者が削除したり関係の無い第三者がAnythingv4や4.5を勝手にリリースしたり…(しかもマージモデルだとか)
増田も追いかけきれていないが追いかけてるぶんは自分のためにここでまとめておく。
NAIリークモデルやAnythingv3に関しては前回を参照。
Instagramで投稿されている画像を学習させたモデルの総称。
実在の人物画像を学習しているため人物の体型をより正確に描画させることができる。
cafe-instagramやzeipher-f222など複数存在し、Basil_Mixのようなアジア人に特化したものも存在する。
U-NETの階層ごとにマージを行う階層マージというマージ手法が考案されたからだ。
これにより実写モデルをベースに見た目をアニメ風にマージするという方法が採れるようになった。
5chなんU(なんJもしくはなんGのパートスレ向けの板でVIPに対するパー速のような板)の住民が作成した階層マージモデル。
現在はBasil_MixとAnythingv3を階層マージしている。
このモデルには派生版があり、nsfw版やhard版は上記マージモデル(通称base)にNAIリークモデルやGape60を混ぜたものらしい。
Gapeについては前回の記事を参照。
NAIのように長いネガティブプロンプトを設定しなくても綺麗な絵を出すことができる。
リアルよりになったAbyssOrangeMixを漫画アニメ向けにファインチューンしたモデル。
Abyss→深界七層(メイドインアビス)→7th_layerということらしい。
アニメ寄りなA、漫画寄りなB、より漫画寄りで破綻しやすいCの三種類がある。
Anything系のような中華で好まれる独特の厚塗りではなく比較的パキっとした塗りの絵が出るので個人的には一番好き。
他にもいろんなマージモデルがあるが、だいたいがNAIリークモデルやAnythingv3と実写系モデルを混ぜたりそれにファインチューンをかけたりしたモデルだ。
Anythingv3もNAIリークモデルがベースだからなんだかんだいってNovelAIが作ったモデルはまさに特異点的な存在なのだろう。
Low-rank Adaptation for Fast Text-to-Image Diffusion Fine-tuningの略で、
Dreamboothの簡易版のようなものとされているが実はDBとは似て非なる技術らしい。
DBよりも短い時間かつ省メモリの環境で学習が可能で、生成されるファイルも30~200MB程度とHypernetworkとそこまで変わらず一定以上のクォリティで追加学習を行えるようになった。
何よりもVRAMが8GB程度のグラボでも学習できるようになったのが大きい。
特定の作者の画像を学習させることでその画風を再現するためのLoRA。
従来はHypernetworkで行っていた。
特定のものやこと(例:ふたなり)を学習させるためのLoRA。
NovelAIやその派生モデルでは困難だった種付けプレスや断面図などの構図の再現が可能となった。
従来は主にDBで行っておりモデルの配布に苦労していたがLoRAによって配布が非常に楽になった。
「士郎正宗風の絵柄でふたなりのナンジャモ」という画像を生成することもできる。
またLoRAはHypernetworkのようにモデルを選ばないが、NAIリークモデルを学習のベースにすると破綻しづらいらしい。
というか今流行っているモデルはほぼNAIリークモデルの血筋が入っているので馴染みやすいんだろう。
同社が運営しているHuggingFace HUBはユーザ登録すれば無料で無限にAI学習モデル(1ファイル2GB~7GB)をアップロードできる上回線も異常に高速であるため重宝されている。
モデルマージなどでストレージが圧迫されているローカル民にとっては救世主のような存在。
資金源は謎だが、2022年の5月に2億ドル調達しているのでストレージを無尽蔵に増やせるらしい。知らんけど。
HuggingFaceが考案したモデルファイルのファイル形式。
実行コードを含んでいることもあり従来のckptモデルはしょっちゅうトロイの誤検出が起きていたが、
SAFETENSOR形式のモデルは実行コードを含まないため安全であるとされる。
シェアウェア(という表現はおいておいてのやつ。https://anond.hatelabo.jp/20230124045812)の記事が面白かったので、自分の得意分野の領域でいろいろ紹介します。
基本的に、SaaSのサービスは便利だけど、あれもこれもと契約していったらサブスク破産するので、
もともとownCloudっていうDropbox代替があったんだけど、そこから分派して今も機能開発が続いている。
興味深いのはLAMP構成なので、VPSや自宅サーバーじゃなくても、レンサバで動くのがいいよね。
データ保存領域はオブジェクトストレージ(S3互換)も利用できるので、例えばWasabiなんかと契約してお安く済ませてしまうのも全然アリかと。
最近はカンバンシステムって、単体で使うんじゃなくていろんなアプリの中で使われる印象なので、今更Trelloだけ使いたい、なんてニーズはないかもだけど、
そこまで複雑でなく小規模なプロジェクトとかだと、意外とTrelloだけでいいよね、みたいなこともあるかな。
そういう時は、これを使うといいかも。
ちょっとUIの雰囲気が違うだけで、まんまSlackです。絵文字の追加もできるし、APIもあるし。人によって好き嫌い分かれるスレッド機能も、まあ、あのスレッド機能のまま。
n8nと書いてnodemationと読ませるらしい。初見殺しすぎんだろ。
ZapierやIFTTT、無料枠あるけど、あれもこれもやり出すとすぐ無料枠埋まっちゃうので、これ結構いいと思うんだけどな。
kintone使ってる会社増えてると思うんだけど、まだまだ1ユーザー1500円ってのは高いので、零細企業は導入し辛いと思う。
で、それの代替になるのがExment。UIがkintoneとは少し違うので代替と言い切れないかもしれないが、
やれることはkintoneのソレと全く同じなので、用途代替はできる。
開発も日本企業なので、UIも日本語化されている。LAMP構成なので、レンサバでも動くよ!
そもそもAirtableって何やねんって人もいるかもしれないけど、kintoneとGoogleスプレッドシートをいいとこ取りして、Trelloとガントチャートを足した感じ。
これもまあまあいい感じでZoom再現してます。Zoomの方が新機能の追加早いけど、Jitsiも頑張って追いついている感じです。
ただ、やる内容が複数人でのリアルタイム動画配信なので、サーバースペック・回線スペックはまあまあ必要なので要注意。
こちらは使ったことないんだけど、よりオンライン授業向けらしい。
最近よく見かけるようになった、オンラインミーティングとかの予定をブッキングさせるSaaS。
あれのはしりがCalendlyで、日本でもいくつかそれのSaaSができてますね。
あれらも無料枠だと1カレンダーだけしかできなかったりするんだけど、これなら好きなだけブッキングさせられます。
ECサイトとか、Webマーケティングを重視してるサイトによくある、画面右下に吹き出しアイコンがあって、チャットウインドウがぴょこっと出てくるやつ。
日本ではWeb接客とか言われてるけど、あれの代表的なSaaSがIntercom。Zendeskは、どちらかというと内部ツール向きかな。
これのOSS版がChatwootとPapercups。自社サイトにWeb接客入れたいけど、費用抑えたい、って時にどうぞ。
この手のツールがないと仕事にならないという人も多いと思います。
これまでだとRedmineがそれのOSS版的立ち位置でしたが、さすがにイマドキあのUIはないなぁ、と。
OpenProjectは、Microsoft Projectの代替をイメージしてるみたいですが、
ガントチャートにカンバンがデフォルトで使えるので、BacklogやAsanaの代替にはちょうど良いでしょう。
ただ、そんな高度なことしてるわけではないのに、サーバーの要求スペックはちょっと高めなのでご注意を。
UA廃止でGA離れが始まってるとも聞きますが、疎開先として有名。
PHPで動くので、PHPやWordPressでできたサイトに一緒に入れちゃってもいいと思う。
HeadlessCMSは、データ表示を持たず、フロントエンドへAPIを通じてデータを渡すタイプのCMSのこと。
このジャンルでは、SaaSだとContentfulが有名だけど、OSSでもいろいろある。
Node.js製。歴史があるので、結構いろんなことができる。
WordPressのGutenbergエディターを取り込んだプラグインなんかもある。
User認証も持ってるので、CGM的なサイトを作ろうと思ったらできなくもない。
これもNode.js製。利用できるDBが幅広く、既存のデータベースも活用できる。
なので、既にPostgresSQLとかでデータを持ってるんだけど、
非エンジニアにもデータを触らせるためのフロントエンドが欲しい、ってニーズに良いかも。
PHP製。SQLiteとMongoDBで利用可能。MySQL/PostgreSQL使えないのがちょっと残念。
近年、本腰入れて自社ECサイトをやろうと思うと必ず選択肢に上がるShopify。
インテグレートパートナー向けのエコシステムも充実してるので、取り組み始めるエンジニアやシステム会社も多い。
ヘッドレスコマースや越境ECには向いているものの、これをセルフホストしたい、というニーズに応えたのがmedusa.js。
ざっと見てみただけだけど、モダンな構成で、今時のフロントとバックエンドを分けた構成でやりたい、というのには向いている。
プラグインにmedusa-marketplace.jsというのもあり、Amazon的なマーケットプレイスも実現可能。
昨年、Adobeに買収され、デザイナーたちを驚愕させたFigma。
先日はAdobe XDが終了のお知らせとなり、UIデザイナーたちの不安は募るばかり。
そんな提供企業に振り回されたくないなら、このPenpotでUIデザインしよう。
Figmaほど機能実装はされていないが、まあまあ一通りのことはできる。
Figma代が嵩むとお嘆きの制作会社なんかは、一考の余地あるんじゃなかろうか。
企業によっては、コンタクトフォームをたくさん作りたいという会社もある。
人材採用のフォームを職種別に細かく分けたい(しかも頻繁に募集職種が変わるとか)
Google Formで大体解決しそうだけど、それをGoogleに頼りたくないならこちら。
まあまあ機能豊富なので、人によってはGoogleFormよりもこちらを好むかも。
DockerベースのWebメールUI。送受信に必要なものを、丸っとDockerで用意してくれているので便利。
HubSpotは、いわゆるMarketing AutomationとCRMを一体にしたツール。無料枠もあるが、かなり限定されている。
MauticはMarketing Automationよりの機能が多く、ユーザーのサイト上での回遊をビジュアル化してくれたりする。
SuiteCRMはザ・CRMという感じ。SalesForceをデフォルトで使う感じに近い。
ツールが分かれてしまうのは辛いところだけど、それぞれにAPIがあるので、うまく繋げられると強力なツールになってくれるはず。
Webサービス作ってると、メールの通知や一斉配信などがあると思う。
通常これらはSendGridや、AWS SESなどで処理すると思うが、これらにもOSS代替がある。
PostalはDockerでメール周りのもの全部用意してくれているので、かなり楽。
WordPressをモダンにしたような感じで、EC機能もデフォルトでついてる。マルチサイトも標準。
Jimdo/Wix代替と書いたが、もちろん自分のサイトをMicroweberで作ってもいいが、
自前ホスティングして、JimdoやWixのようなサービスを始めることもできる。
テンプレートをいくつか作っておいて、Stripeを仕込んでおけば、今日からあなたもJimdo/Wixのような事業を始められるわけだ。
JImdo/WixとSTUDIO/Webflowは一緒くたに語られがちだが、明確な違いがある。
前者はプリディファインドなブロックをGUIで構成するのに対し、後者はDOM要素ベースで構築していく。
つまりよりHTML/CSSによる細かなデザインコントロールがしやすく、Webデザイナーが親しみやすい。
それのOSS版がWebstudio。まだアルファ版だが、フロントエンドはそれなりによくできているので、
バックエンドを自前で用意してStripeを仕込んでおけば、今日からあなたも(以下略
Facebookなんか使わねーよ、っていう人も多いかもしれないが、
特定のコミュニティの中でコミュニケーション取るには、FacebookのUIと機能は優れていると思う。
なので、サークルとか同窓会、あと自治会とかPTAなんかにもいいんじゃないだろうか。
Netflixの代替って、Amazon Primeとかじゃねーの、と思われるのかもしれないが、そうではなくて、
あなたがNetflixみたいな商売したいならこれを使うといいよ、というのがJellyfin。
いや、そんな商売しないよ、と思うかもしれないが、
使いようによっては、おじいちゃんおばあちゃん向けの子供動画配信サービスとして構築するとか、
Stripeと連携して、劇団やバンドのオリジナルの配信サイトを構築するなんかも面白いと思う。
今更誰もYouTubeやVimeoの後追いをしようとはしないでしょうが、
複数のユーザーから動画のアップを受け付けて、それを閲覧したい用途もあると思う。
例えば、軽音部で複数のバンドが練習風景を録画したのを定期的にアップしたりとか。
学習塾で、授業の録画を授業ごとにアップしていったりとか。
ZoomやGoogle Meetのような双方向ではなく、一対多の一方通行配信。
個人的には、企業のウェビナーツールとしての可能性を感じる。(Zoomのウェビナープランとか高いもん)
1つのメールアドレスを複数人で運用したい時のツールがメールワイズとRe:lationどちらも日本のSaaS。
FreeScoutはOSSだけど、海外製。一応日本語化もされてるっぽい。
ECサイトの顧客問い合わせや、営業チームのプライマリー対応なんかに良いと思う。
Bubbleってなんぞ? という人のためにお伝えしておくと、ノーコードベースのWebアプリ開発ツール。
データエンティティを設計したら、自動的にCRUDを作ってくれて、フォームを配置するというような感じ。
Bubbleはそれ系の老舗で、歴史が長い分ノウハウも溜まっており、連携できるサービスも多い。
ただ、ベンダーロックインされるし、季節的なキャンペーンとかでは、アプリを使用しない期間もサブスク費用がかかる。
Budibaseは、Bubbleの思想に一番近い感じ。凝ったUIが必要なければ、ざっくりコレでなんでも作れちゃう。
AppSmithも同じような感じだが、これはDBをあらかじめスキーマ定義しておかないといけないところが若干不便かな。
ToolJetはルーティングURLの概念がなく、本格使用を諦めたんだけど、最近アップデートしたらしいので、そこのところどうなってるかまた確認しときたい。
他にもこの手のやつあったら、いろいろ教えて欲しい。単純に好きなので。
「つづき」で気になった箇所を深掘り。確認するに、専門家の監修体制の構築はそれほど難易度は高いように思えなかった。やはり「つづき」で応えてくれた「医療用の学習データをGPT側で定期的に用意できるか」が今後の発展のポイントになりそうだ。
Me:
GPTのAttention機構って何?
GPT:
Attention機構は、自然言語処理タスクにおいて、入力文の中から重要な部分を選択し処理するためのアルゴリズムです。GPTは、Transformerと呼ばれるモデルアーキテクチャを使用しています。Transformerは、Attention機構を利用して、入力文中の各単語の関係性を学習します。これにより、モデルは入力文全体を理解し、より質の高い出力を生成することができます。
Me:
GPTは医療の知識が弱いと聞くけど、このAttention機構の仕組みと関係ある?
GPT:
GPTは、学習データに基づいて学習されます。そのため、学習データに医療に関する知識が少ない場合、GPTは医療に関するタスクに対して劣る結果を生成する可能性があります。Attention機構は、入力文中の各単語の関係性を学習するために利用されています。しかし、Attention機構自体は、学習データに基づいて学習されるため、学習データに医療に関する知識が少ない場合、Attention機構も医療に関するタスクに対して劣る結果を生成する可能性があります。しかしながら、GPTには大量のテキストデータを学習し、自然言語処理タスクに対して高い性能を発揮する能力があり、知識を持っていない領域でも新しい知識を得る能力を持っています。そのため、医療に関するタスクをGPTに与える場合は、十分な医療に関する学習データを与えることで、GPTが医療に関するタスクに対しても高い性能を発揮することが期待できます。
Me:
ポイントは、Attention機能を医療用にチューニングするのではなく、医療データを学習データとして与えることが、GPTの医療分野への強化に繋がるんだね。
GPT:
そうですね。Attention機構は、入力文中の各単語の関係性を学習するためのアルゴリズムです。GPTは、学習データに基づいて学習されます。そのため、学習データに医療に関する知識が少ない場合、GPTは医療に関するタスクに対して劣る結果を生成する可能性があります。それに対して、十分な医療に関する学習データを与えることで、GPTが医療に関するタスクに対しても高い性能を発揮することが期待できます。そのため、Attention機能を医療用にチューニングするのではなく、医療データを学習データとして与えることが、GPTの医療分野への強化に繋がるということになります。
Me:
GPTが医学的な正確性や専門性を獲得するには、意思決定者としての専門家の監修が必要という認識だけど、仮にそれが可能になった場合、GPTは医療現場で使われるようになると思う?
GPT:
GPTは、大量のテキストデータを学習し、自然言語処理タスクに対して高い性能を発揮する能力があります。しかしながら、GPTは人間の主観や判断力を持っていません。そのため、GPTが生成する出力は必ずしも正確であるとは限りません。そのため、医療現場でGPTを使用する場合は、専門家による監修が必要です。専門家は、GPTが生成する出力が正確であるかどうかを判断し、必要に応じて修正を行うことができます。これにより、GPTが生成する出力が正確であることが保証され、安全かつ効果的な医療を提供することができます。そういった意味で、GPTが医療現場で使われるためには、専門家による監修が必要であり、GPTはその監修に基づいた情報の提示などに利用されることが考えられます。
Me:
ユースケースとしては何が考えられる?
GPT:
GPTは、自然言語処理タスクに対して高い性能を発揮する能力があるため、医療現場での様々なタスクに利用することが考えられます。例えば、医療文書の自動生成や翻訳、診断支援、治療プランの生成、疾患の予防に関するアドバイスの生成などが挙げられます。また、GPTは大量のテキストデータを学習することで、新しい知識を得る能力を持っているため、医学研究や新しい薬物の開発にも利用することができます。ただしながら、これらのタスクにおいてもGPTが生成する出力は必ずしも正確であるとは限らないため、専門家による監修が必要です。
Me:
専門家の監修は、GPTのユースケースの内、どのフェーズで必要になると思う?
GPT:
GPTが生成する出力が正確であることを確認するために、専門家による監修が必要になります。そのため、GPTを利用する各フェーズで専門家の監修が必要になることが考えられます。これにより、GPTが生成する出力が正確であることが保証され、安全かつ効果的な医療を提供することができます。
- 学習フェーズ: GPTが学習するデータについて、専門家が正確性や適切性を確認し、修正を行うことが必要です。
- 生成フェーズ: GPTが生成する出力について、専門家が正確性や適切性を確認し、修正を行うことが必要です。
- アプリケーションフェーズ: GPTが生成した出力を使用するアプリケーションについて、専門家が安全性や効果を確認し、必要に応じて修正を行うことが必要です。
Me:
各フェーズごとにその適用の難易度を教えて。
GPT:
各フェーズごとに適用の難易度は異なりますが、概ね以下のようになります。ただし、これらは一般的な話であり、実際には、専門家がそれぞれのフェーズにおいて監修するために必要なスキルや知識は、それぞれのアプリケーションやタスクによって異なります。
- 学習フェーズ: GPTが学習するデータの整理や整形は、技術的なスキルが必要になりますが、専門家が正確性や適切性を確認するための作業は、通常は難しくありません。
- 生成フェーズ: GPTが生成する出力を確認し、修正するためには、専門的な知識や判断力が必要になります。このフェーズは、専門家によって適切に行われないと、生成された出力が正確でない可能性があります。
- アプリケーションフェーズ: GPTが生成した出力を使用するアプリケーションの開発やテストには、技術的なスキルが必要になりますが、専門家が安全性や効果を確認するための作業は、通常は難しくありません。
Me:
たしかに生成フェーズにおける出力のパターンは他のフェーズと比べ管理しづらそうだけど、その難易度を調節するための工夫はあったりするの?
GPT:
生成フェーズにおいて、GPTが生成する出力を確認し、修正するための難易度を調節するための工夫には以下のようなものがあります:これらの工夫により、GPTが生成する出力を確認し、修正するための難易度を調節することができます。また、専門家が確認する作業を効率化することで、より多くのGPTが生成する出力を確認することができ、正確性や適切性が高い出力を得ることができます。
- GPTが生成する出力のフォーマットを明確に定義することで、専門家が確認する作業を簡略化することができます。
- GPTの出力を確認するためのインターフェースやツールを開発することで、専門家が確認する作業を効率化することができます。
- GPTが生成する出力に対して、事前に定められたルールや基準を適用することで、専門家が確認する作業を効率化することができます。
- GPTが生成する出力を多数の専門家に確認してもらうことで、正確性や適切性を確認することができます。
- GPTが生成する出力を正確性や適切性が高いと判断される場合は、人手を減らして出力を採用することができます。
Me:
GPTが生成する出力のフォーマットを定義するにはどうすれば良いの?
GPT:
GPTが生成する出力のフォーマットを定義するには、次のような方法があります。これらの方法を組み合わせることで、より正確かつ適切なフォーマットを定義することができます。
- テンプレートを使用する: GPTによる出力には、事前に定義されたテンプレートを使用します。これにより、GPTが生成する出力のフォーマットが明確に定義され、専門家が確認する作業を簡略化することができます。
- スキーマを使用する: GPTによる出力には、事前に定義されたスキーマを使用します。これにより、GPTが生成する出力の構造が明確に定義され、専門家が確認する作業を簡略化することができます。
- 入力と出力の関係を明確にする: GPTによる出力は、入力に対応した形式で生成されるようにします。これにより、GPTが生成する出力のフォーマットが明確に定義され、専門家が確認する作業を簡略化することができます。
Me:
GPTの出力テンプレートの使用方法を教えて。
GPT:
GPTの出力テンプレートを使用するには、以下のような手順を踏むことができます。このように、GPTの出力テンプレートを使用することで、GPTが生成する出力のフォーマットを明確に定義することができ、専門家が確認する作業を簡略化することができます。また、テンプレートを学習させることで、GPTが生成する出力が予め定義したフォーマットに沿っていることを保証することができます。
- 出力テンプレートを作成: GPTが生成する出力のフォーマットを定義し、テンプレートを作成します。例えば、診断書のフォーマットや手術手順の書き方など。
- GPTにテンプレートを学習させる: GPTに、作成したテンプレートを学習させます。
- GPTに入力を与える: GPTに、入力として必要な情報を与えます。
- GPTが生成する出力を確認: GPTが生成した出力が、事前に定義したテンプレートに沿っていることを確認します。
- 修正を行う: GPTが生成した出力が、事前に定義したテンプレートに沿っていない場合は、修正を行います。
Me:
GPTのテンプレートとスキーマの違いを教えて。また、プリセットと何が違うのかも教えて。
GPT:
GPTのテンプレートとスキーマは、出力フォーマットを定義するための方法であり、それぞれ異なる特徴があります。つまり、テンプレートは文章のフォーマットを定義するのに、スキーマはデータ構造を定義するのに、使用します。プリセットは、テンプレートやスキーマのような事前に定義したパターンやデータ構造を使用することができます。ただし、プリセットは、具体的には何を指すかは定義が異なります。
- テンプレート: GPTの出力に対して、事前に定義された文章のパターンを使用します。例えば、診断書のフォーマットや手術手順の書き方など。テンプレートは、GPTが生成する文章のフォーマットを明確に定義することができ、専門家が確認する作業を簡略化することができます。
- スキーマ: GPTの出力に対して、事前に定義されたデータ構造を使用します。スキーマは、GPTが生成するデータの構造を明確に定義することができ、専門家が確認する作業を簡略化することができます。
- プリセット: GPTの出力に対して、事前に定義されたパターンやデータ構造を使用します。プリセットは、GPTが生成する出力を明確に定義することができ、専門家が確認する作業を簡略化することができます。
Me:
Pythonのopenaiライブラリでテンプレートやスキーマを再定義することは可能?
GPT:
はい、openaiライブラリは、新しいトレーニングデータ、テンプレートやスキーマを含むように、GPTモデルをファインチューニングすることができます。 openai.Completion.create()メソッドを使用して、GPTモデルをファインチューニングすることができ、トレーニングデータ、テンプレートやスキーマ、ファインチューニングパラメータを指定することができます。また、openaiは既にテンプレートやスキーマが組み込まれたモデルも提供しており、それらを直接使用することができます。
Me:
`openai.Completion.create()` メソッドでテンプレートやスキーマを再定義する方法を教えて。
GPT:
openai.Completion.create()メソッドを使用して、GPTモデルをファインチューニングするには、次のようにします。このように、openai.Completion.create()メソッドを使用して、GPTモデルをファインチューニングし、テンプレートやスキーマを再定義することができます。ただし、学習データとして適切なものを選び、ファインチューニングのパラメータを調整する必要がありますので、注意が必要です。また、トレーニングデータとして使用するテンプレートやスキーマによっては、モデルの性能が改善しないこともあるため、適切なものを選ぶことが重要です。また、ファインチューニングを行うためには、足りないデータや時間、計算リソースが必要です。
- トレーニングデータを用意: GPTに学習させるためのデータを用意します。このデータは、テンプレートやスキーマを含んでいる必要があります。
- openai.Completion.create()メソッドを呼び出す: openai.Completion.create()メソッドを呼び出し、トレーニングデータ、ファインチューニングパラメータを指定します。
- ファインチューニングを実行: 指定したパラメータに基づいて、GPTモデルをファインチューニングします。
Me:
当該メソッド用のファインチューニングパラメータは `prompt` を使うんだよね?
GPT:
はい、openai.Completion.create()メソッドでは、promptパラメータを使用して、GPTモデルに対して、生成したい文章のフォーマットやデータ構造を指定することができます。このpromptによって、GPTは指定されたフォーマットやデータ構造に従って文章を生成するように学習します。このpromptには、テンプレートやスキーマを含む文章を指定することで、GPTに学習させることができます。
AIが色々出てくるが、学習やファインチューニングしようとすると性能が足りない。
個人のパソコンで出来る範囲で学習させると、それほど便利な物が出来ない。
メモリーは128GBまでなら個人でも買える価格だが、多くが使い道がない。
24GB程度か、頑張って40GB程度だろう。
レイトレ話題になったが、ゲームでも拡大して見比べないと違いがわからない程度。
かといって本格的なフォトリアルなものだと性能が足りず、未だに8個のGPUをレンダリングファームで借りるとかになる。
CPUのコア数増えても、ベンチ以外でフル活用出来るソフトがそもそもない。
かと思ったらAIだとCPUは全然使われて無くてGPU性能で決まる。
音楽だとDAWでオーケストラなんてやろうとすると何故かまだ止まる。
性能足りてそうなのにリアルタイムが悪いのか、ソフトが悪いのか。
GPU2個以上にしようとすると、コンセントのワット数超えるしさ。
2台以上のパソコンでクラスタ分散処理ってなると、出来るソフトが限られる。
Midjourneyが出て話題になり、Stable Diffusion Ver.1.xはオープンになって話題になったけど、
クオリティに難ありで、一通り触ったら使わなくなった人が多かったかと思う。
日本的にはWaifu Diffusion、NovelAI、(他もあるが省略)など出てきて話題になったものの、
1ヶ月課金して終了する人、という段階があった。
promptで何処まで出せるかというのが、ネット民のマンパワーで探られていたが、
そこまで広がらなかったのではないだろうか。
独自にファインチューニングする人もそこそこ居たが、そちらもすぐに飽きられた印象だ。
Stable Diffusion Ver.2.0は出てきたが、それほど進化したわけでもなかった。
(ものすごい金をかけているのに)
無料なら使うが、毎月金払って使い続ける層は何かしらかの方法で費用回収している人だけな気がする。
そしてその費用回収する道が、現状珍しさだけが売りで、Midjourney、NovelAIが示しているように一瞬で飽きられる。
絵が飽きられるので常に開発しないといけない、
よく例として挙がるのはバナナなんだが、まめにスーパーまで買いに行かないといけない時点で却下。引きこもりを舐めるな!
家にはBASE BREADって完全栄養食を謳うパンがあるんだけど、
ワイって食べるの遅いから、朝の乾ききった口でもしゃもしゃパンを食べるのが正直苦痛なんだよね。
COMPという完全栄養パウダーを売ってるところを思い出した。
冷蔵庫から出してコップに注ぐ→ごくごく飲んで朝ごはん終わり、ってのができるはず
んで値段を見てみたら、1000ml×6本で7,800円!!!
栄養バランスは考えられているけど、200kcal摂取するのに260円。
う~ん…
もう体が弱って量を食べられない高齢者向けの通販サイトが引っ掛かる。
125mlの小さい紙パック飲料で200kcalが採れて、栄養バランスもそこそこ考えられている。
商品にもよるが1個で145円ぐらい。
いいじゃん!
と思い、まだまだ30代で元気だけど
じじばば向けの濃厚流動食を買った私なのでした。
Reddit、Discord、Twitter、prompt検索サイトなどを漁って、色々promptを試して最初よりかはまともな画像が出るようになったが、
そこまでになっている。
特に75トークンという文字数制限がキツく、時間をかければ、少しずつ良くしていけるって感じがしない。
限界感じて、制限していたアーティスト名も入れてみるようになったが、
世界中に色んなアーティストがいて、Noodle Soup Promptsというprompt支援ツールに登録されている、アーティスト名が1000超えていたり、
感情の名前が100超えていたりして、組み合わせが多そうに見えるが、
というか、それほど真似したものが出てくるわけでもないし、なにより自由度が低い。構図が少ない。
他の人のpromptで参考になることが、ちょっと前より少なくなった。
既に試したものが多くなってきている。
海外勢は、textual Inversionやファインチューニングなどし始めているようだが、いかんせんGPUメモリーが足りない。
ここ1年で初めてはてなブックマーク日毎の総合人気エントリ入りしたドメインからのホットエントリ、ブクマ数順トップ30
anond:20210804000508 でやってみたものと同じ。滅多にホットエントリを出さないサーバからのホットエントリと言ったほうが正確なのかな。
ブクマ数 | タイトル | ドメイン |
---|---|---|
1187 | 腕に針を刺して体内の血糖値を常時記録する「フリースタイルリブレ」で糖質と血糖値の関係を徹底的に調査した | manualog.net |
1097 | 新型コロナ後遺症チートシート(対策一覧) | longcovid.jp |
980 | ひろゆきとガーシーとFC2高橋氏について - 続・はてなポイント3万を使い切るまで死なない日記 | kawango.hatenablog.com |
929 | ひろゆきの賠償金未払いの真相について(追記あり) - 続・はてなポイント3万を使い切るまで死なない日記 | kawango.hatenablog.com |
888 | やっぱ「邦ロック」聴いても音楽聴いたことにならなくない?という話──サマソニにおける差別的な言動を通して - 屋上より | leoleonni.hatenablog.com |
817 | Readable | readable.joisino.net |
755 | peco、パートナー・ryuchellの告白に思いつづる「最高の彼氏だったし、最高の旦那さんだった」 - モデルプレス | mdpr.jp |
695 | インターネット番組「ポリタスTV」の出演休止/降板について | kyokotominaga.com |
664 | Macユーザーにおすすめしたいアプリ2022年8月 - loveMac.jp | lovemac.jp |
650 | 集英社 りぼん 公式サイト | ribon.shueisha.co.jp |
624 | 「ラジオライフ」2022年10月号の有害図書に関する記事 | 三才ブックス | www.sansaibooks.co.jp |
595 | 専門家「死ぬまでもう見られない」と評する歴史的偉業…昆虫大好き小学生が国内3例目の“トゲナナフシのオス”発見 | 東海テレビNEWS | www.tokai-tv.com |
573 | なれのはてブ - 嫁のはてブが閉鎖しツラいので作りました。 | narenohatebu.jp |
523 | 「異世界おじさん」でたかふみはなぜUR団地に住んでるのか?【こだわりの公団住宅描写】 : さざなみ壊変 | sazanami.net |
509 | 日本のアニメ総合データベース「アニメ大全」 | anime100.jp |
504 | SPA認証トークンはlocalStorageでもCookieでもない、Auth0方式はいいねというお話 - @mizumotokのブログ | mizumotok.hatenablog.jp |
495 | 同人音声がすごいことになっている2022 - セミになっちゃた | xcloche.hateblo.jp |
474 | 追悼 安倍晋三元首相 ~国葬にあたり、広く社会で弔意を~ | クラウドファンディング - White Canvas | sankei.en-jine.com |
463 | mimic(ミミック) | illustmimic.com |
456 | SEOの学び方 ~ SEO初心者から上級者への道 - SEMリサーチ | www.sem-r.com |
450 | ソフトウェア開発者は徹夜してはいけない - ソフトウェア工学研究の日々 | ishiotks.hatenablog.com |
447 | Stable Diffusionをいらすとやでファインチューニングする | birdmanikioishota.blog.fc2.com |
423 | Google Mapsがレビュー数を伸ばすための取り組みとサービスデザイン考察記事|坪田 朋 | blog.tsubotax.com |
418 | 安倍晋三さんが命がけで開いた戦後レジームからの脱却 統一教会問題はこう解決せよ【山本一郎】 | web-willmagazine.com |
405 | COCOAログを詳細分析できる「COCOAログ.jp」 | cocoalog.jp |
405 | おかっぱ美少年データベース - 蓮のうてなで君を待つ | grace-3023.hatenablog.com |
381 | 画像生成AI「Stable Diffusion」をGoogle Colabで動かしたメモ - ただいま村 | ima.hatenablog.jp |
370 | 八木啓代のひとりごと 本当に怖い統一教会の実態 〜 ラテンアメリカでの暗躍 | nobuyoyagi.blog16.fc2.com |
362 | ハードワークで人は成長するか - SaaS企業で働くプロダクトマネージャーのブログ | www.blockchainengineer.tokyo |
352 | Stable Diffusion メモ: キャンバスの縦横比は構図にどれくらい影響するか - jt_noSke's diary | jtnoske.hateblo.jp |
TwitterでStable Diffusionで検索をかけてもpromptを公開している人は殆どおらず、何がいいかわからない。
そうなんだよね。
みんな、びっくりするほどpromptを公開していない。
Stable Diffusionを触った感想を書いていく。
人物について、日本人っぽさを出すのは難しい。(写真でも絵でも)
Japaneseを入れた場合、表情がおかしい事になる。(変顔みたいなもの)
どこから学習データを引っ張ってきているかしらないが、CJKは全部一緒なのかもしれない。
着物といった海外で受けている日本っぽいものを入れたとしても、英語圏向けに活躍している中国人アーティストっぽいのが入る。
ラーメンに関しても、日本のラーメンではなく、欧州の中国人か韓国人がやっている日本料理屋のラーメンが出てくる。
アニメ絵を出したいが、正直難しい。
ポケモンやドラゴンボールといった米国で流行っているのがわかっている作品については、それっぽいのが出てくる。
アニメ絵を出すために、ghibli、shinkai makotoというマジックワードを入れるというノウハウがあるが、
それくらいしか分類に対して単語が定義されてないということだろう。
写真にしろ、アニメ絵にしろ、日本人がかわいいと思う感じにはならない。
kawaiiを入れたとしても「?」と悩みそうなのも出てくる。
自分が考える「かわいい」に近づけようとして、promptを大量につけたとしても、指す言葉が足りなく感じる。
目が細いので「目を大きく」と指定すると猫目の奇妙な物が生まれる。
目、鼻、口のバランスを言葉で指定するのを試してみたが、どれも変になった。
言葉で指示出来ない微妙なバランスによって成り立ってる物は、調整も難しいのだと思う。
あと指定を多くすればするほど画像のクオリティが低くなり破綻している箇所が多くなる。
ファンタジーな感じにならない。
獣度が違うというのか?
動物が服を着ている、2足歩行している、顔や腕の毛の量といったのが、
かわいい感じにはならない。
全体的に、Stable Diffusionで簡単に出ることがわかっている物はいいが、
コンセプトやイメージが明確な時は、調整が効かない。
他の人のpromptを探していると、「なんでこんな事を書いているんだ?」と思うことがあるが、
おそらく「The-DALL·E-2-prompt-book-v1.02.pdf」という資料に沿っているようだ。
Stable Diffusion用ではないので、どこまで効いているかはわからない。
(実際同じpromptで、DALL-EとStable Diffusionで微妙に傾向が違う)
lexicaで他人のpromptを探すことが出来るが、少し古いっぽい。8月13日付近とか。
本気で選ぶセガサターンミニ収録タイトル予想2022夏 - 分析編2
『BEEP! メガドライブ』の後継誌『セガサターンマガジン』にも読者レースは引き継がれた。採点の出典は『サターンのゲームは世界いちぃぃぃ! サタマガ読者レース全記録』。
メガドラ時代に較べて全体的に採点がインフレ傾向にあることもあってかソフトの数がとにかく多い。
続き
色々考えたけど、ヴィクトリアマイル組の勝ちはないとすることにした
そういう決め打ちがないと買えん
ヴィクトリアマイルもそもそもソダシが圧勝で、レイパパレがスタートでつまずかなければ勝ち負けしただろう
ソングラインもファインルージュもレシステンシアもソダシのレベルにはないでしょう
ヴィクトリアから安田記念勝つなんて、アーモンドアイもグランアレグリアもできなくて、ウオッカしかできてないことが、ヴィクトリア実質6着のソングラインにできるとは思わない
勝つ可能性があるのはカフェファラオ、ダノンザキッド、イルーシヴパンサー、シュネルマイスターの4頭にしぼる
そして連対の可能性があるのはこの4頭+レシステンシア、ファインルージュ、ソングラインの牝馬勢ということにする
セリフォスはそもそも今まで勝ててないし、クラシック前の評価なんてそこまで信頼してない
3歳のチャンピオンホースってわけでもないんだから、昨年のシュネルマイスター同様、よくて3着では
というわけで、
カフェファラオ、ダノンザキッド、イルーシヴパンサー、シュネルマイスターを軸
それに+レシステンシア、ファインルージュ、ソングラインを足した7頭がヒモの、馬連にする
上3種を3枚、次点の3種を2枚ずつ買えばガミにならない
計2700円
なお、買うかはまだ迷ってる
15時21分
いま上の通り買ったわ
こんばんは
ダービーで満足しちゃったんで安田記念は余裕な気持ちでできますね
鳴尾記念では勝負の3連単を外してしまったので、3連複回収だけで230円のトリガミとなって泣きました
まあ、8レースのエルパソの単勝で勝ったから微プラスなのでいいんです
さて、安田記念ですが、色々吟味した結果、スルー推奨となりました
アンカツ含むネットの予想家も、斤量軽い方がワンチャン、とかその程度の話しかしない
結局のところ、実力が抜きん出た馬がいなくて、レース展開や当日の馬の気分次第でどうとでもなるレースって感じがします
10回時間を戻してやり直したら、10回とも違う着順になるでしょう
というわけで、なるべくすり抜けが出ない買い方だけ探すことにしました
3連複で考えると100通りだか出てくるので、お買い上げが1万円個えそうです
となるとまずは枠連です
そして調子さえよければ本命間違いなしのシュネルマイスターの5枠
この組み合わせ、4-7. 4-5. 5-7. 7-7. 4-4は、4-7さえ2つ買えばトリガミになりません
全部で6口、最低払い戻し7.0倍なので、600円で最低100円、最大1470円儲かる見通し
比較的堅い結果になればこれでおーけー
ですが、一発穴あけで勝ちまであるカフェファラオ、ダノンザキッド、レシステンシア、ナランフレグあたりをケアできません
このへんの馬を切れる人は枠連でいいでしょう
でもさすがに切れないよね
次に複勝
上の枠連600円に、カフェファラオ複勝1点添えてもガミらない
レシステンシアも
そうすると上記の枠買いと絡まず、本命枠以外の複勝だけで攻める案
カフェファラオ6.0倍、ダノンザキッド3.8倍、レシステンシア4.3倍、ナランフレグ6.9倍
どれか諦めないとうまくいかなそう
諦めてもいいんだけどねー
で、
次に考えたのはこれ
ヴィクトリアマイルからの安田記念は、あのアーモンドアイもグランアレグリアも取りこぼしてる
アエロリットもそう
いくらソングラインやファインルージュが強くても、グランアレグリアを超える馬とは思えない
てことはさすがに勝てないでしょ
一週長いだけのNHKマイルカップ組セリフォスも善戦止まりと思う
ヴィクトリアマイルやNHKマイルカップ組は勝てないとするなら、勝つのは別路線の十分間隔が空いた有力馬
今回は、カフェファラオ、ダノンザキッド、イルーシヴパンサー、シュネルマイスター、ソウルラッシュ、ナランフレグあたりかと思う
この6頭の単勝だけ勝っても、どれかが勝てばガミらない
カフェファラオ1枚、ダノンザキッド2枚、イルーシヴパンサー3枚、シュネルマイスター4枚、ソウルラッシュ2枚、ナランフレグ1枚で、総額1300円、ガミらず最低350円、最大1900円の儲けになる
もっと攻めるなら、
カフェファラオ4枚、ダノンザキッド5枚、イルーシヴパンサー11枚、シュネルマイスター13枚、ソウルラッシュ6枚、ナランフレグ2枚
これはありかなーって思ったけど知らんわ
多分、買わないと思いますー
買った人は各々の考えとおすすめ教えてください!