はてなキーワード: シーケンスとは
あれには狭義と広義があると思うよ。
狭義の一発録りは、いわゆる同録ってやつだね。スタジオにオケとシンガーを集めてせーので録る。マルチトラックを使うにしてもパート毎に差し替えるためでなくマイキングやミキシングのためで、何テイクも録るもんじゃない。美空ひばりとかの大御所の時代だね。あるいはテレビの生オケ生歌唱の歌放送もそれに近いですかね。
広義の一発録りというのがたぶん THE FIRST TAKE が主張しているところ。テイクとしては初回に近いものを使うがマルチトラックレコーディングした素材のエディットを許すというもの。このエディット作業がまるでないかのような番組演出を例のバンドマンは問題視している。その一方で彼は「補正はお化粧」としてエディット自体は否定していない。
このエディット、ボーカルトラックのピッチ補正が一番派手だから問題にされやすいけれど普通にリズムやタイミングやブレスの補正も入る。たとえば声が小さそうなアイドルはがっつりコンプで叩いてダイナミクスを均一にしてあるよね? ほどよくリバーブもかかっているでしょう。多少の素材の良し悪しがあってもレーベルとしては番組として質を均一に整えるのが大人の仕事なわけで、ここにはちゃんと人手を掛けて聴きやすいものを届けないといけない。むしろあれ観てると丁寧に仕事してるなと感心するよ。
余談だけど、テレビの収録モノの歌番組も事務所に素材を送り返して修正してから放送というのもよく聞くよね? これは制作費が事務所側の持ち出しだったりするから当然なんだけど、なにもお茶の間の視聴者は審査員でもなんでもなくて、単に耳障りのいい音楽を求めてるお客さまなわけじゃん。だからこれでみんなハッピーだし現に補正の効かない生一発のライブでもみんながっかりせず違和感なく楽しめてるわけですよ。なんの問題もないよね?
THE FIRST TAKE は映像の絵力の吸引力でワンテイク無編集だと騙されちゃうのも無理はないと思う。明らかに作ってる側もそれを狙ってるんだよね。ほんとに初回のテイクだけで作ってる? と言われるとそこも演者次第なんじゃと思うけど、絵と違和感がでない程度には切り貼り少なめですよ、バックトラックも専用に誂えてあってボーカルが映える薄めのオケで悪くないやん、くらいに捉えておくと楽しめるんじゃないですかね。ゆーてあのオケもシーケンストラック敷いてありそうですけどね。ま人生短いし細かいこと気にしてたらなんも楽しめなくなりますよ。
○ご飯
朝:なし。昼:カラムーチョ。夜:手羽元、白菜、人参、大根、舞茸、ネギの鍋。たまごネギおじや。リンゴ。間食:チョコ。
○調子
○SeaBed
・はじめに
田舎から上京しデザイン事務所を立ち上げたサチとタカコ、二人の日常と休日を丁寧な文体で淡々と描く公称ジャンルは百合要素を含むミステリーなノベルゲーム。
まずミステリという言葉には多様な意味があり、パズラーや本格だけを指す言葉ではなく、衒学趣味だの狂人の解放治療だのをアンチミステリーだと喜んで受け入れた当時の評論家たちが悪いのであって、そのようなものをミステリと呼称することの是非は呼称する側にはないのだ、と言った面倒臭いミステリオタクの言い分はこの一文だけで終わりにして、以後の感想でもミステリ部分への言及は抑えることにする。(なお虚無の幻想描写だけ否定しないのは流水によって解体済みだからなんだよなあ(何が何やら))
そんなわけで公称ジャンルはさておいて、百合作品女性同士の恋愛ものとして僕は楽しんだ。
様々な時系列が入り混じりながらお話が進んでいき、未就学児時代、小中高、社会人、現在と長い時を過ごす二人の女性のエピソードの回想がたっぷり遊べる。
エピソードと書いたものの、所謂起承転結のような物語的な起伏はかなり薄いものもある。
食べたご飯、気持ちのいい温泉、美しい風景、自然の中で感じるニオイや音などなどの、ただそこにあるものの描写、それとそれを二人で楽しむことのかけがえのなさが淡々と描かれる。
良い意味で二人は仲良しなのだ以上の物語のスジが無いエピソードが多い上に、キャラクタの内面の描写もお互いのことが好きなこと以外は控え目。
おそらく文学的な言葉でなにか括ることが出来るのだろうけど、僕の語彙には無いので情景の描写にたっぷりと尺がつかわれているということを伝えたかった。(自然派が自然の描写、森とか山の描写を書く意味でないことぐらいは僕も流石に知っている)
伏線が云々と評価することも出来るのだろうが、これらの美しい文章をありのままに楽しむだけでも十分面白い作品だと思う。
勿論、それだけのゲームではなく、あくまで回想シーンはそのような作風になっていると感じた。
明るくていつも元気で突飛な行動をするが結果をちゃんと出すタカコのカップル。
恋愛に関するフィクションって付き合うまでのドキドキがキモなものが多いけど、今作ではその辺はかなり控えめ。
二人はもうすでに付き合っているところから物語が始まり、回想シーンの大半も付き合って以降のものになる。
そのため、駆け引き無しキス有りセックス有りで、ひたすらにラブラブなシーンばかり。
全年齢向けゲームではあるものの、かなり直接的な表現も多くイチャイチャ度合いをたっぷり楽しめる。
性欲強めなタカコに渋々付き合うサチなパッケージと見せかけて、サチも普通にノリノリなシーンもあったりとシチュエーション豊富。
恋の鞘当て的なシーンもなくもないが、基本的には二人の関係値は最初から最後まで揺るがない。
一番揺らぐのがタカコが性欲ベースで他の女性に手を出そうとするシーンで、それがかなり「らしさ」に思えてしまうのは好きが別れそうだ。
冷静で落ち着いているサチが視点人物のパートでは、最初のうちは一歩引いた客観的な描写のように思う。
事実その通りなシーンもあるのだけれど、ストーリーが進んでいくにつれサチへの理解が進むとなかなかそう単純な話ではないことがわかる。
文体が落ち着いている上に、サチが「怒った」とか「悲しんだ」のような感情を表現しないため気づきにくいだけで、めちゃくちゃ感情補正をかけて客観的に見ている風を装っているように読める。
これは作中でも主観を完全に排除できないことへの言及がされているため、間違いなく自覚的な演出なのだろう。
なかなかに凝った趣向で、読み進めていくにつれファーストインプレッションからずいぶん離れたところにいるサチを見るのが楽しかった。
・タカコの前向きさに救われる
そんな複雑なサチに対して、タカコは最初から最後までほとんどブレない。
公式の粗筋の範疇だけでも彼女にはずいぶんと辛いことが起こるのだけど、それでも前向きの色々なことをしてくれる。
パーティや旅行などのイベントごとが好きなので、彼女が様々な話の起点になるのが特に良い。
サチを引っ張るタカコという繰り返される構図に慣れ親しめば慣れ親しむほどに、SeaBedにハマっていける。
そんな魅力的なサチとタカコについて語ってきたが、彼女達二人っきり以外のシーンだと同僚を交えた職場での会話劇も楽しかった。
大人の女性ながらぬいぐるみ大好きな文と、真面目でちゃらけない犬飼の二人がタカコに振り回され、それをサチがツッコミして締めるのは、他者が混ざることでよりタカコとサチの分かち難さが伝わってくる楽しいシーンだ。
先に述べた食事シーンの豊富な文量はここでも活かされていて、オヤツを巡るいくつかのシーケンスなやり取りが面白かった。
どれも序盤に集中していて後半になるにつれて出番が激減するのは残念なところ。
中盤以降はかなり出番が多く活躍するんだけど、なんといってもサチを誘惑シーンの頭の良さと淫猥さが凄かった。
まず、客観視が得意なサチを納得させるためにペラペラと理屈を捲し立てる。
サチに上手く言い訳を与えつつ自分の欲求を飲ませようとするのが頭良くて賢さを感じた。
その上で、まあ普通にエッチな格好もするという二段構えさが、頭イイ淫猥だ。
中盤ということもあり、サチとタカコの関係値、分かち難さを嫌というほど体験した後にも関わらず、ワンチャンいけるかもかもかな? と思わず七重さん側を応援してしまった。
そんなかなり策を練ったであろう誘惑シーンだが、サチとタカコの関係はブレない。
誘惑しているセリフの量と、断るときのセリフの量の差がえげつなくて、全然笑うシーンじゃないのにクスっときてしまった。
・生と向き合うことで死と向き合える重たいシナリオ
明るくて楽しい見所ばかり書いたが、それだけのゲームではない。
悲しい、落ち込む重たいシナリオの部分もたくさんある。
それが生と向き合うことで死と向き合える重たいシナリオだ。
ここでいう生と向き合うは、考えることを辞めないことのような意味で、思考し理解することを解いていると僕は感じた。
ただその重さも、サチの独特な客観視の妙と、それでも頑張るタカコの朗らかな様が、そんなざっくりした一言ではまとめきれない多様なグラデーションのある感情になる。
読む人によってかなり受け取り方に違いがありそうで、全編ずっと悲しい話じゃんと思う人もいそうだし、同じぐらいと思う人も、いや楽しいの方が多いという人もいるかもしれない。
僕はミステリやコメディにようなエンタメを求めてゲームを遊んでいるところがあるので、明るい楽しいところばかり感想を書いてしまったかもしれない。
(何しろ公式粗筋にいる3人の主人公内2人の感想は書いても、最後の1人については触れてすらいないからね)
・おわりに
女性同士のイチャイチャラブラブの先に重苦しい生きるとは、死とはを問うシナリオが待っていた。
かなり好みが分かれそうだけど、僕は公称ジャンルの是非以外についてはかなり好きな作品だ。
テーマ的な部分以外だと美味しい食事に舌鼓を打つシーンが多いのも好きな理由。
https://www.python.jp/train/tuple/index.html
以下、気になったところ。
タプル
Pythonでは、複数のデータの組み合わせから構成されているデータを表現する場合、タプル という種類のオブジェクトを利用します。
タプルの書き方
タプルは、要素となるデータを「 , 」で区切って記述できますが、「, 」だけだとちょっと見にくいので、通常は全体を丸括弧 () で囲んで記述します。
ningyocho = (35.686321, 139.782211)
kotoshi = ('平成', 2)
この括弧は必須ではありませんが、括弧なしでは読みにくく、間違いの元になる場合もあるので、通常は括弧をつけて記述する慣習になっています。
タプルオブジェクトの要素を参照する
タプルオブジェクトに登録したオブジェクトは、リスト と同じように 要素の順番 を指定して参照できます。
タプルオブジェクト[要素の順番]
== 演算子でタプル同士を比較すると、同じ値のタプルならTrue を返します。
!= 演算子でタプル同士を比較すると、異なる値のタプルなら True、等しい値なら False を返します。
タプル同士の値の比較は、先頭の要素から順番に同じインデックス同士の値を比較して、先に小さい値となったタプルが小さい値となります。
比較するタプル同士の長さが異なる場合、短いタプルの要素と長いタプルの要素を比較してすべて等しければ、短い要素のほうが小さい値となります。
タプルオブジェクトの場合、リストオブジェクトのように要素を変更することはできません。
タプルオブジェクトの要素を変更する場合は、リストオブジェクトのように要素を変更するのではなく、あたらしくタプルオブジェクト全体を作り直す必要があります。
タプルとリスト
リストとタプルはどのように使い分ければよいのでしょうか?
タプルは複数のデータの組み合わせから構成されているデータのためのオブジェクトです。
複数の要素から構成される独立したデータ をあらわすときは、タプルを使用します。
固定的な形式をもつ独立したデータではなく、不定個数の独立したデータをたくさん集約してまとめておきたい、という用途には、リストが適しています。
数値オブジェクトは、物質の重さや長さなど、いろいろなデータの値を直接あらわすオブジェクトです。
一方、 リストや辞書は、直接的なデータではなく、いろいろなデータを登録して、集約しておくために使われるオブジェクトです。
リストやタプル、辞書のように、他のオブジェクトを集約することを目的とした種類のオブジェクトのことを、
コレクション (Collection)
と呼びます。
コレクションに登録されている要素の数は、len() 関数で調べられます。
コレクションは、比較演算子 の == 演算子や != 演算子で、値が等しいかどうかを判定できます。
in 演算子を使うと、コレクションに値が登録されているかどうかを調べられます。
in 演算子は < や == のような 比較演算子 の一種で、
値 in コレクション
という式は、指定した値がコレクションに登録されていれば True を、登録されていなければ False を返します。
辞書オブジェクトの場合、in 演算子は指定した キー が 登録されているかどうかを調べます。
文字列オブジェクトの場合も、in 演算子で中に文字が含まれているかどうかを確認できます。
コレクションは、 for 文に指定して、コレクションの要素ごとに、for 文に記述した処理を実行できます。
辞書オブジェクトを for 文に指定すると、辞書のすべての キー を取り出して、for文に指定した処理を行います。
リスト・タプル・文字列はいずれも コレクション に属するオブジェクトですが、コレクションの一種で、整数値のインデックスを指定して要素を参照できるオブジェクトのことを、
シーケンス (Sequence)
と呼びます。
リストやタプルなどのオブジェクトは、コレクションの一種で、他のオブジェクトを登録し、集約できるオブジェクトです。
シーケンスとは、コレクションのうちで、集約する要素が一定の順序で並んでいて、その順序(インデックス)を使ってその要素を指定できる種類のオブジェクトのことを指します。
コレクションに属するオブジェクトでも、リストやタプルとは違って、辞書 は、順序を指定して要素を指定することはできません。
タプルやリスト、文字列などのシーケンスオブジェクトは、 <、 <=、>、>= などの演算子で、値の大小を判定できます。
シーケンスではない、辞書オブジェクトなどのコンテナオブジェクトは、 < などによる大小の比較はできません。比較すると、エラーとなります。
コレクションのアンパック
代入式の右辺がコレクションなどの場合には、左辺に複数の変数名を指定して、コレクションの要素を一括して変数に代入できます。
(例)
list_obj = [1, 2, 3]
var1, var2, var3 = list_obj # var1, var2, var3 に、list_objの要素を順に代入
print(var1, var2, var3)
1 2 3
変数 var1、var2、var3 には、右辺のリストオブジェクトの要素が一つずつ順番に代入されます。
この場合、var1 には list_obj の最初の要素である 1が、var2、var3 には、それぞれ2番目と3番目になる 2 と 3 が代入されます。
アンパックを利用した代入は、Pythonプログラミングで頻繁に利用されます。
アンパックは、複数の値を戻り値とする 関数 でよく使われます。
関数で計算した結果は、return文 を使って、戻り値として返します。
しかし、関数 total_and_average() は合計値と平均値の2つを計算しますが、 return文 に指定できる戻り値は一つだけです。
(例)
def total_and_average(values):
total = 0 # 合計値の初期値 0 を設定
average = total / num
return (total, average)
戻り値としてタプルを使い、複数の値を一度に返す関数はとてもよく使われます。
テクニックとして覚えておきましょう。
https://www.python.jp/train/index.html
目次
Pythonのテキストデータと簡単な入力・出力方法を学びます
・アンカーV4
AGE好き。世間評価と一番乖離してると思っているがだいぶ好き。AGEの象徴はコイツだから。
・ブルーディスティニー1号機
GジェネF遊んだときに一目惚れして以来好きなんだけど原作遊ばずに小説と漫画しか知らないのいい加減どうにかしないとなあ。
・ダギ・イルス
キンケドゥが「アンナマリーさんから預かってたものだ」とザビーネに何かを渡すも、マジでザビーネは覚えてないって言う妄想して泣いちゃう。あんな男に気持ちを向けるのが間違いだったと思うな。
・ザクII改
俺の好きの原点かもしれん。
武力による戦争根絶、それこそがソレスタルビーイング、ガンダムがそれをなす、俺と共に、そうだ、俺が、俺達が、ガンダムだ! のところの刹那が好きすぎて泣くんだけど、そのままシーズン2を見直すと、その象徴たるエクシアがこんなになるまで戦い続けることにまた泣いちゃうんだなあ。
地球寮VSグラスレー回の一連のシーケンス大好きで、どこ切り取っても好きなんだけど、まあやっぱこの機体のとこかなあ。
ミオリネの作戦勝ちってとこ込みだから、チュチュ先輩どうのはあんまりない。
・ギラ・ドーガ[C]
ビルドファイターズトライのこと好きじゃないし、この回のことも大好きなクロスボーンガンダムの扱いがアレでぐぬぬってなるんだけど、実はこの時の二人は鋼鉄の七人が木星へ侵攻する時に一瞬だけ立ち寄った小惑星で暮らすネオジオン残党兵達の生まれ変わりという二次創作を書いて心を落ち着かせたので。
アストレイのどれが好きかは割と気分によるんだけど、今日はロウが「王道でない」という言葉を語るXアストレイが大好きな気分。
https://arxiv.org/pdf/2305.00833.pdf
Learning to Reason and Memorize with Self-Notes
大規模な言語モデルは、限られたコンテキスト メモリと多段階の推論に苦労することが示されています。
モデルが自己メモを取ることを可能にすることにより、これらの問題の両方を解決するための簡単な方法を提案します。
最近のスクラッチパッド アプローチとは異なり、モデルはいつでも入力コンテキストから逸脱して明示的に考えることができます。
これにより、モデルはコンテキストを読み取りながら情報を想起し、オンザフライで推論を実行できるため、メモリが拡張され、複数ステップの推論が可能になります。
複数のタスクに関する私たちの実験は、推論時に自己メモを取ることにより、トレーニング設定からより長く複雑なインスタンスに私たちの方法がうまく一般化できることを示しています.
1. イントロダクション
Transformers (Vaswani et al., 2017) および同様のバリアントは、シーケンスベースのタスクで印象的な結果を示しています
特に、GPT-3 (Brown et al., 2020) などの大規模な言語モデル (LM) はトランスフォーマーを使用し、質問応答 (QA) などのさまざまな NLP タスクを解決できます。
LM を QA タスクに使用すると、図 1 (上) に示すように、事実情報と質問を含むコンテキスト プロンプトが与えられ、モデルが直接回答を生成します。 ただし、この自己回帰の「ワンステップ」アプローチは、複数ステップの推論タスクと格闘します (Austin et al., 2021; Press et al., 2022a; Creswell et al., 2023)。 これは、バニラ LM が各トークンに対して固定された計算を行い、現在のコンテキストに応じてさらに「考える」オプションがないという事実から生じると主張します。 (2021) 図 1 (中央) に示すように、モデルが質問に答える前に推論トークンを生成できるようにするスクラッチパッドの使用を提案しましたが、完全なコンテキストと質問を読み取った後です。 同様に、一連の思考を促す方法 (Wei et al., 2022; Zelikman*Equal Contributor 1Meta AI. への対応: JackLanchantin <jacklanchantin@meta.com>, Sainbayar Sukhbaatar<sainbar@meta.com>.et al., 2022; Huang et al., 2022) は、モデルをプッシュして、一度に 1 ステップずつ答えを説明し、より首尾一貫した最終的な答えに導きます。 非線形タスク (Fan et al., 2020)、LSTM (Hochreiter and Schmidhuber, 1997) などの再帰型先行モデルが十分に備えられているもの。 Fan et al., 2020; Ju et al., 2022; Hutchins et al., 2022)、しかし、それでも与えられたプロンプトに対して一定量の計算を使用します。 推論と状態追跡メモリがより扱いやすくなります。 私たちの方法である「Self-Notes」により、LM はオンザフライでコンテキスト プロンプトから逸脱し、明示的な推論トークンを生成できます。 図 1 (下) に示すように、スクラッチパッドとは異なり、モデルは生成されたトークンを入力コンテキストとインターリーブできます。 このようなセルフ ノートは、明示的な中間推論ステップと状態追跡用のメモリの両方として機能します。 具体的には、推論ステップで 2 つの事実を組み合わせる必要がある場合、結果として得られる推論をセルフ ノートに書き込んで、将来の推論に使用することができます。したがって、中間推論ステップとして機能します。 たとえば、「アリスは箱を持っています」と「アリスは公園にいます」が与えられた場合、「箱は公園にある」と推測してそれを自己メモに書き、将来のステートメント「鍵は in the box」で「鍵は公園にある」と結論付ける。 さらに、コンテキストをトラバースしながらモデルがエンティティの最新の状態を新しいトークンとして書き込むことができるため、SelfNote はワーキング メモリの形式として機能できます。 たとえば、プログラミング環境では、最初に x=5 を想定し、次に x を 1 ずつ増やします。モデルが x=6 をセルフ ノートとして正しく記述していると仮定すると、元の x=5 ステートメントをそのコンテキストから安全に削除できます。 モデルが x の値について問い合わせられた場合、モデルは既に答えを持っています。
私たちの提案した方法と、スクラッチパッド (Nye et al., 2021)、思考の連鎖 (Wei et al., 2022)、または内部独白 (Huang et al., 2022) などの以前の研究との主な違いは、モデルを許可することです。 各コンテキストステートメントを順番に読み取るときに、複数のメモを明示的に書き出す。 InarXiv:2305.00833v1 [cs.LG] 2023 年 5 月 1 日図 1: (上) ベースライン バニラ LM は、コンテキスト (C) と質問 (Q) が与えられると、回答 (A) を直接生成します。 (中央)スクラッチパッドを使用すると、モデルは質問に答える前に中間推論トークンを生成できますが、コンテキストが表示された後です。 (下) 私たちの Self-Notes メソッドにより、モデルはいつでも推論してメモを取るために入力コンテキストから逸脱することができます。言い換えれば、私たちのアプローチは、将来の推論に役立つ可能性のある情報でコンテキストを補強するスクラッチパッドのインライン形式です。 私たちはこれを、人間が読む方法と同様に、明示的に述べられていない情報を推測するための行間の読み取り (および書き込み) の形式と見なします (van den Broek et al., 2009)。 以前の方法では、モデルが完全なコンテキストを読み取った後に反芻することができ、読み取っている間ではなく、最後に大量の推論を行うように強制されます。
さらに、そのようなポストコンテキスト推論は、推論が開始される前に以前のコンテキストトークンがモデルのコンテキストウィンドウからすでに出ている可能性があるため、メモリとして機能できません。 たとえば、数週間または数か月の対話履歴を持つインテリジェント エージェントを考えてみましょう。 直観的には、最初から考え直すことなく、以前の対話で行った推論ステップを使用できることは理にかなっています。自己メモを生成するようにモデルに教えるために、トレーニング中に、入力の一部としてグラウンド トゥルース自己メモを言語モデルに提供することを検討します。 コンテクスト。 推論中に、トレーニング中に学習した特別なトークンを生成する場合、モデルはコンテキストから逸脱し、SelfNote を生成できます。モデルが Self-Note の生成を完了すると、元のコンテキスト トークンが引き続き供給されます。 これにより、モデルは最後だけでなく、入力トークンの処理中にメモリを推論および作成できます。 また、Self-Notes をトレーニングするための半教師ありおよび教師なしの方法も提案します。多段階の推論と状態追跡を評価するように設計された 5 つのテキスト データセットでこの方法をテストします。 , 2020; Anil et al., 2022)、および 2 つの現実世界のチェス ゲーム タスク (Toshniwal et al., 2022)。 私たちの方法は、明示的なメモ取りを行わない微調整された言語モデルとスクラッチパッドのベースラインの両方よりも優れています.2. 方法シーケンス内の次のトークンを予測する自己回帰変換モデル M を考えてみましょう
太宰治の走れメロスのストーリーについてマインドマップにまとめて、PlantUMLで出力してください。
PlantUMLを使用して、太宰治の『走れメロス』のストーリーをマインドマップにまとめることはできません。PlantUMLは主にシーケンス図、クラス図、アクティビティ図、コンポーネント図、ステートマシン図、オブジェクト図、デプロイメント図、タイミング図、ユースケース図などのUML図を生成するための言語です。
ただし、『走れメロス』のストーリーのマインドマップをテキスト形式で提供できます。マインドマップを手動で作成することができるツールやソフトウェアにこの情報をインポートして使用してください。
(以下略)
「Cural Health」や「Drexel’s University」「Nabla」など、各所でGPT-3の検証がなされているので、今後 医療現場でGPTが使われるようになる可能性を聞いてみた。
Me:
あなたはどのように実装されたの? Deep Learning?
GPT:
はい、私はDeep Learningによって実装されました。特に、Transformerと呼ばれるアルゴリズムを使用して学習されました。これは大量のテキストデータを学習し、自然言語処理タスクに適用することができるように設計されています。
Me:
もっと詳しく。
GPT:
Transformerは、自然言語処理タスクのためのDeep Learningアルゴリズムです。それは、大量のテキストデータを学習し、それを解釈し、理解することができるようになります。 Transformerは、複数の層からなるニューラルネットワークを使用して、テキストを処理します。それは、大量のデータを効率的に処理するために、Attention機構を使用します。これは、特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。Transformerは、自然言語処理タスクにおいて非常に成功しています。それは、自然言語の翻訳、文章の解釈、質問応答などのタスクに適用されており、高い精度を発揮しています。私はTransformerを使用して学習され、自然言語処理タスクに適用することができます。
Me:
事前訓練とかしているんだよね?
GPT:
はい、私は事前学習を受けています。事前学習とは、大量のテキストデータを使用して、言語モデルを学習することを指します。これは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。事前学習は、言語モデルのパフォーマンスを大幅に改善することができます。それは、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるためです。私は、大量のオンラインテキストデータを使用して学習され、それを解釈し、理解することができるようになりました。それは、自然言語処理タスクに対して高い精度を発揮することができます。
Me:
今のパラメータはいくつ? 前のバージョンよりどのくらい精度がよくなった?
GPT:
私の現在のパラメータ数は、数百億から数千億となっています。これは、大量のデータを使用して学習し、高い精度を達成するために必要なパラメータ数です。精度は、バージョンによって異なりますが、一般的には、前のバージョンよりも高い精度が達成されています。これは、新しいアルゴリズムや技術の進歩によって、より良い結果が得られるようになってきているためです。また、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるため、精度が向上していることも見られます。
Me:
具体的なパラメータ数は? 前バージョンのGTP-2、現バージョンのGPT-3、次バージョンのGPT-4、それぞれ教えて。
GPT:
GPT-2は、1.5バイアレイパラメータを持っていました。それは、大量のテキストデータを使用して学習し、自然言語処理タスクに適用することができるようになっていました。GPT-3は、175バイアレイパラメータを持っています。これは、GPT-2よりも多くのパラメータを持っており、より高い精度を達成することができます。GPT-4はまだリリースされていないため、そのパラメータ数については確定していません。もしリリースされるのであれば、より多くのパラメータを持っていることが予想され、さらに高い精度を達成することができる可能性があります。
Me:
175バイアレイパラメータって何? 1750億パラメータの間違いでは?
GPT:
そうです、GPT-3は175バイアレイパラメータを持っています。それは1750億のパラメーターを持っていることを意味します。これは、大量のデータを使用して学習し、高い精度を達成するために必要なパラメータ数です。これは、現在の自然言語処理タスクに対して最も大きなモデルであり、高い精度を達成することができるため、市場においても高い評判を得ています。
Me:
バイアレイパラメータを英語で表現して。
GPT:
A "peta-parameter" or "Peta-parameter" (PT) is a measure of the capacity of a machine learning model, specifically the number of parameters it has. In the case of GPT-3 it has 175 peta-parameters, meaning it has 175 million billion parameters. These parameters help the model to understand and interpret large amounts of text data, allowing it to perform natural language processing tasks with high accuracy.
Me:
「175 billion parameters」の間違いでは?
GPT:
そうです、「175 billion parameters」の間違いでした。 GPT-3は175 billion parametersを持っています。それは、自然言語処理タスクに対して高い精度を発揮するために必要なパラメータ数です。申し訳ありませんでした。
Me:
GPT-3はどのように概念レベルの知識を持つの? Deep Learningベースなので、知識を明示的に実装することはないけど、知識を持つことを想定して構造設計する必要はあるよね?
GPT:
GPT-3は、大量のテキストデータを使用して学習されました。それによって、自然言語処理タスクに対して高い精度を発揮することができます。それは、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるためです。GPT-3は、大量のテキストデータから概念レベルの知識を学習します。それは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。 それは、単語や文章の関係性、文章の構造、文章の意味などを理解することができるようになります。GPT-3は、Deep Learningベースのモデルであり、知識を明示的に実装することはありませんが、大量のテキストデータから知識を学習することができるように構造設計されています。それは、Attention機構を使用して特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。
Me:
Attention機構について詳しく。
GPT:
Attention機構は、自然言語処理タスクにおいて重要な役割を担う機構です。それは、大量のテキストデータを処理するために使用され、特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。Attention機構は、Seq2Seqモデルなどの自然言語処理タスクに使用されています。それは、入力シーケンスから出力シーケンスを生成するために使用されます。Attention機構は、入力シーケンスのある部分に注目し、それに基づいて出力シーケンスを生成することができるようになります。Attention機構は、ニューラルネットワークの中で使用されます。それは、重み付けされた平均値を計算し、それに基づいて入力シーケンスから重要な部分を選択することができるようになります。GPT-3は、Attention機構を使用して、大量のテキストデータから概念レベルの知識を学習し、文章の意味を理解することができるようになります。
○ご飯
朝:ケチャップライス。目玉焼き。昼:オムライス。間食:喫茶店の固いプリン。焼き芋。ポテチ。夜:なし。
○調子
・はじめに
カートゥーン調のアニメと美少女ゲームが融合した、ハイテンポなSFのお話のADV。
アニメのパートと、1000枚以上のイベントスチルで構成されていて、立ち絵でお話が展開するシーンの方が少ないんじゃないか? と思っちゃうぐらい豪華な作品。
地の文が徹底して減らされていて、ノベルゲームというよりは、漫画やアニメのような味わいもある。
ストーリーの方も、トレジャーハンターの記憶を失った孤児のマルコとその相棒の銀河竜アルコの二人を主役に銀河を股にかけるスケールのでかい話だ。
シリアスなパートだけじゃなく、コメディなシーンも沢山あって、所謂「いっぱい笑っていっぱい泣ける」系のストーリーだ。(これ別にバカにしてるわけじゃないんだけど、侮蔑の意味で使う人もいるから避けた方がよかったかな)
地球人ながら幼い頃に奴隷として誘拐されてしまい、その後はワニ型異星人のドスゴロの元でトレジャーハンターという名の盗人として銀河を叉にかけるマルコ。
辛い境遇ながら、アルコという家族がいるからどうにかやっていけてる関係性が良い。
互いに依存し合っていて、事あるごとに二人は仲の良さを確認し合う。
二人の関係に名前を付けてしまうことの無粋さは本編でも言及されているので、これを百合とか家族愛とかは言っちゃいけないやつだ。
そんな二人のテーマソングのような歌詞になっているオープニングソングの飢餓と宝玉はこのゲームの象徴だろう。
映像と音のハマり方もバッチリで、最高のオープニングだし、そこ以外での使い所も流石にわかってるところで気持ちいい。
文量的にはかなり二人の物語で他の子はサブキャラなんだけど、開発元が美少女ゲームのところなので。その文脈が強く、ヒロインたちも可愛い。
かなりシリアスなゲームのはずで、真面目なヒロインもいるものの、バカ勢が出てくると一気に話がコメディに寄っていく。
中でも、テラは作中屈指のバカで、短絡的で、自分勝手。中盤のストーリーを引っ掻き回しに回しまくってくれる。
・男性の脇役ながらドスゴロがかっけえ
美少女ゲームの文脈とはいったものの、男性キャラも大勢出てくる。
中でも特に格好いいのが、主人公マルコの育ての親であるギャングのワニ型異星人のドスゴロ。
序盤はかなりの悪人なのだけど、話が進むにつれて格好良さが増していく。
特にオーラスもオーラス、最後のシーケンスで登場する彼は、もしかしたらこのゲームのタイトルが「マルコと銀河鰐」だったかもしれないとすら思ってしまい名シーンだ。
・贅沢さの裏返しに
主人公コンビに愛せるサブキャラが男女複数人とキャラクタの魅力を語ってきたけど、正直なところ僕はあまり面白くなかった。
最初に書いた通りすごく贅沢な作品なのだけど、それだけにその贅沢さに振り回されていたような印象が強かった。
地の文がほとんどない構成だからこそ、SFな世界観に、豊富なサブキャラ、複雑な人間関係、これらを上手く捌き切ったとは感じられず尻ギレトンボな箇所が多かった。
特にサブキャラの中でも恩田姉妹に関しては主人公と密接な関係値を示唆するシーンが多いものも、言ってるだけというか実感が伝わってこなかった。
また、バカなコメディシーンが多いのも、好みではあるが、そこよりももっと本筋にまつわる文章を読みたい気持ちの方があった。
豊富なアニメにイベントスチルで、文章に頼らずに従来のADVを越えようとする気概はすごく感じる。
僕としては、もっと文章に比重をかけて欲しかった。いやバランスの話ねこのゲームの文章のクオリティが低いわけではない。
ADVというよりは、全く違う新しいジャンルのゲームとして見るとスゴイのかもだけど。
従来のADVファン層じゃないところに向けている面もあると思うので、老害っぽい意見になっちゃうかなあ。
・さいごに
新時代のADVだ! と言われれば確かにすごく新しくて、今までにない経験ができた。
例え話をしてしまうと、2時間のオリジナルアニメ映画のような読感かもしれない。
夜な夜な皿の枚数を数えるお菊の亡霊が現れるとの噂を聞きつけ、皿屋敷の裏にある井戸を訪れた。
もう夜が更けていたせいか、井戸に亡霊が現れ何やら数える声が聞こえる。
亡霊「0枚…1枚…2枚…」
私「で、出たーっ!0枚の前にもなにか数えていたけど、今着いたばかりで聞き取れなかったな」
亡霊(悲しそうに)「3枚…4枚…」
亡霊改めお菊(うなずく)「5枚…6枚…7枚…」
私「なんと、噂は本当だったか。お菊さん、数えながらもこちらの言葉は通じるようだね」
お菊(うなずく)「8枚…9枚…」
私「1枚足りないって言うのかな?」
お菊(首を横に振る)「:枚…;枚…」
私「あれ?違うのか。で、今何て言ったんだろう?」
お菊「<枚…=枚…>枚…」
お菊「?枚…」
お菊(首を横に振る)「@枚…A枚…B枚…」
私「分かった、ASCIIコードかよっ!しかも、さっきの<枚や>枚は文字化けしないようエスケープシーケンスまで使われているぞ」
お菊(ちょっと嬉しそうにうなずく)「D枚…E枚…」
私「こうなったら最後まで聞き届けてみよう。なにか力になれるかもしれない」
(中略)
お菊「y枚…z枚…」
私「そろそろ終わりか」
お菊「|枚…}枚…~枚…」
お菊「…」
少々の沈黙。
お菊(苦悶の表情で)「何度数えても最後の1枚が足りない…うらめしや…」
私「お菊さん、それは思い違いだよ!ASCIIコードの最後は制御文字のDELだから、次の文字『枚』が消えたんだよ!」
お菊(驚きながらも納得した様子で)「!?あら嬉しや…」
以後、お菊の亡霊はDEL…消え失せたのであった。
はてブのホットエントリ(総合)で月内に数多く[あとで読む]タグを集めたエントリ
315あとで/2676users じゅじゅ on Twitter: "ネット上にある、完全無料で勉強になる有益なコンテンツまとめました。 (お金/資産形成、Excel、仕事術、資料作成、英語、ファイナンス、統計・データ分析、プログラミング、ITなど) GWでなにか勉強したいな~、と思っていた方はぜ… https://t.co/wHbkKFUnFM"
303あとで/1947users ITエンジニア採用入門 | てぃーびー | Zenn
262あとで/2510users 2000時間の遠回り英語学習を経てたどり着いた、1日30分でネイティブの会話が聞き取れるようになる練習法 | anond.hatelabo.jp
255あとで/1643users 「時間がない」症候群、その傾向と対策 | NAVITIME JAPAN | SpeakerDeck
252あとで/1809users デザインのしたじき – コ・デザインのためのシンキングシート | 株式会社グラグリッド
230あとで/1314users 本当は教えたくないWebデザイン参考ギャラリーサイト30選【2022年版】 - PhotoshopVIP
228あとで/1665users ソフトウェアエンジニアでテストマンな私が家を買う際にやったこと - 若くない何かの悩み
225あとで/2050users 中日新聞:自動車工場のガロア体 QRコードはどう動くか
206あとで/1852users 「便利になる」だけでは人は動かないし、「当事者意識をもってくれる人」はめちゃ貴重だという話 | Books&Apps
200あとで/1325users 君には今から3時間で機械学習Webアプリを作ってもらうよ | alivelimb | Zenn
192あとで/1944users オンラインゲームでは、お互いの位置がだいぶ離れていても (日本とブラジルくらい) 何故素早く同期できるのですか?どのように通信しているのでしょうか?に対するNakamura Yutaさんの回答 - Quora
191あとで/1472users 人気エントリーで増田の15年の歴史を振り返る | anond.hatelabo.jp
189あとで/1371users 新疆公安ファイル | 毎日新聞
181あとで/1518users じゅじゅ on Twitter: "英語に少しでも苦手意識がある人のための、英語関連神ツール9選 https://t.co/2W9ZwzIdL6"
177あとで/1430users 君はインド最大(多分世界最大)の無料MOOCの「NPTEL」を知っているか。 | anond.hatelabo.jp
159あとで/914users なぜ今シェルスクリプトを学ぶのか・シェルスクリプトのTips - 理系学生日記
156あとで/1328users 楽器できないヤツのためのDTM入門【追記あり】 | anond.hatelabo.jp
154あとで/878users 超上流から攻めるIT化の事例集:システム化の方向性と計画:IPA 独立行政法人 情報処理推進機構 社会基盤センター
149あとで/991users Chrome拡張 つくりかた 令和最新版 | r7kamura.com
149あとで/1123users 197冊の教えを1つにまとめた黄金律の教科書 - 本しゃぶり
135あとで/748users VSCodeおすすめ設定大公開!!おすすめ拡張機能も - Qiita
133あとで/984users あなたにとって適切な転職先か判断するための面接時の逆質問20選 | ちばキャリPLUS
126あとで/745users データベース設計におけるNULL - kawasima
120あとで/755users Markdownでシーケンス図とかが書けるMermaid記法で業務フローを書いたら意外とイケたので自分なりのコツを紹介してみる | DevelopersIO
118あとで/928users 【夫婦で開発】1年かけて1週間を振り返えるアプリを本気で開発してみた | wheatandcat | Zenn
117あとで/628users Python だけで作る Web アプリケーション(フロントエンド編) | alivelimb | Zenn
112あとで/612users 質とスピード(2022春版、質疑応答用資料付き) / Quality and Speed 2022 Spring Edition | 和田卓人 | SpeakerDeck
112あとで/1400users ノア・スミス「日本の生活水準,低すぎ」(2022年5月24日) | optical_frog | 経済学101
111あとで/1825users 名前も知らない人のアカウントを2年かけて特定したら人生が確変に入った|四月|note
111あとで/730users ソフトウェアエンジニア、家を建てる - ここぽんのーと
ウイグルのジェノサイドについて中国の内部資料が流出、公開された件については毎日新聞の特設ページが入った。
お役立ち系の増田が4件もランクインした。ここ1,2年は増田のホットエントリ入り件数も減少傾向で推移してきたけれど今月は急に増えた。
はてブのホットエントリ(総合)で月内に数多く[あとで読む]タグを集めたエントリ
590あとで/4204users 【詳しすぎる2週間】親の死亡後にまずやること(行動チェックリスト付) | まごころ相続コンシェルジュ
291あとで/1560users Google製のJavaScript教育ツール「Grasshopper」は基礎から学べて初心者に優しい!【どれ使う?プログラミング教育ツール】 | 窓の杜
272あとで/1859users 無料コーディング練習所 | 未経験からWebデザイナーへ!
220あとで/1327users 【翻訳】Googleのエンジニアがソフトウェア開発する時に必ず書くドキュメント「Design Docs at Google」 - BppLOG
201あとで/1017users 30 分でわかる!アルゴリズムの基本 | E869120 | SpeakerDeck
191あとで/1365users Wi-Fiトラブルの解決に便利! Windowsの隠れ便利機能「Wlan Report」を活用しよう【イニシャルB】 | INTERNET Watch
175あとで/888users Web開発者はもっと「安全なウェブサイトの作り方」を読むべき - Flatt Security Blog
171あとで/2593users (追記あり) 10億円資産ができたときに知っておいたほうがいいこと | anond.hatelabo.jp
164あとで/849users AWS初心者向けの教材まとめ、AWS日本法人が公開 | ITMedia
162あとで/1231users 【試し読み】書店員さんから大反響! 精神疾患を抱えた妻の介護と仕事…約20年にわたる苦悩の日々を綴った傑作ルポ『妻はサバイバー』|朝日新聞出版さんぽ|note
159あとで/935users 機械学習が独学できる日本語Youtube難易度別まとめ - Qiita
152あとで/961users 8時間を0.01秒に短縮 「アルゴリズムの素晴らしさが2分で分かる動画」が今すぐ勉強したくなる分かりやすさ | ねとらぼ
142あとで/889users 文春オンラインの記事分析を支える爆速ダッシュボードを作るまで|Shota Tajima|note
141あとで/2006users さよなら絵梨 - 藤本タツキ | 少年ジャンプ+
140あとで/1138users 新電力の中の人です。すべてをお話しします | anond.hatelabo.jp
136あとで/1094users 『ゴールデンカムイ』全話無料! | ヤンジャン!
135あとで/780users Docker創始者らが開発、ビルド/テスト/デプロイの自動化をポータブルにするツール「Dagger」登場。そのままローカルでもGitHubでもCircleCIでも実行可能に | Publickey
132あとで/575users フロントエンドエンジニアが知るべきキャッシュを理解する | カーーズ | Zenn
132あとで/1232users みんなが知ってる『ちょっとのコツでめっちゃ美味しくなる、楽になる』みたいなの教えて→全然知らなかった有益な情報が集まる | Togetter
131あとで/679users 【個人開発】正規表現を学ぶ狩りに出ませんか?モンスターを倒しながら正規表現が学べるゲーム「Regex Hunting」を作りました - Qiita
124あとで/1217users 先輩に「何かタメになる話してくださいよ〜」と無茶振りしたら『Language Reactor』という2言語字幕を同時表示できるChromeの拡張機能を教えてもらった | Togetter
124あとで/1254users 育休中に相方がめちゃくちゃ売れた|酒寄さん|note
120あとで/1114users Google Analytics(UA)が使えなくなるのはどのくらいヤバくて、いつまでに何をしたら良いのかの話。 - フジイユウジ::ドットネット
120あとで/598users 電子情報学特論:Chromiumのアーキテクチャを解き明かす | Kentaro Hara | Google Slides
119あとで/1242users 僕がたどり着いた最強パリパリチキンの焼き方→上手に焼くポイントも「鶏肉好きとしては是非とも取り入れたい」「最高のライフハック」 | Togetter
118あとで/866users 「全クリエイターに広まってほしい」文化庁が質問に答えるだけで『著作権契約書』が作れる超便利なツールを作っている | Togetter
116あとで/897users ちょっと触ったら休日が丸2日消失した 個人的2022年ベストゲーム「TUNIC」を全力で推したい | ねとらぼ
115あとで/798users 結局UMLとかシーケンス図とかAWSの図とかどれで描くと良いのよ?と思ったときの選択肢 - Qiita
112あとで/494users 『良いコード/悪いコードで学ぶ設計入門 』を出版します|ミノ駆動|note
109あとで/522users 予防に勝る防御なし - 堅牢なコードを導く様々な設計のヒント / Growing Reliable Code PHPerKaigi 2022
109あとで/1047users (続き)10億円資産ができたときに知っておいたほうがいいこと | anond.hatelabo.jp
未経験から3ヶ月で外資IT勤めで年収1600万みたいなのがバズってたので
ただし俺の場合、実務が未経験なだけでプログラミング歴は20年ちょっとある、いわゆる趣味グラマからの転職
同人ゲーム制作やFLOSS系の活動はずっとやっていて、学生時代はバイトで出会い系サイト作ってた
前職の都合で自動車メーカーとも繋がりがあり、そのツテで昨今の自動車へコンピューティングを強く導入するという流れがあったので誘われて転職することになった
つまり草の根(もう死語だねコレ)の情報技術者が昔馴染みを頼って転職しただけと言ってしまえばその通りなのだ
こんな転職の仕方だからプログラミングスクール出身者のレベルがどんなもんだか知らんけど、もともと俺は電気系のオタクでシーケンスに関して理解があってH8あたりからプログラミングへ手を出しているって感じがスタートなんだ
たぶんイマドキの純粋培養な情報技術者の中には電気回路まったくわからんって人も居るとは思うけど、電気関係の素養があったほうがプログラミングの習得には今でも有利なんじゃないかな?と思わなくもない
例えば俺へ対してパソコン通信やインターネットを通じてプログラミングのノウハウを教えてくれたお兄さんたちはゲームメーカーでエレメカやってるって人が居たりして、後にゲームハードやROM作り始めたなんて話もリアルタイムに聞いていた。今じゃお偉いさんになってるだろうけど
そんなんだから俺はハードもソフトもネットワークもスペシャリストほどではないけれど満遍なく知る変な素養があり直接声がかかった次第だ
イマドキ流行りのGoとかSwiftとかRustみたいなイケイケな言語ではなくC++とかJavaとかBashとかの方が得意だっていうのも評価としてはあったかも知れないけどね
あと日常的なLinuxデスクトップ使いというのも最近のLinux興隆の流れから後押しがあったかも知れん
もちろん苦手な部分もある、GUIがそれだ
GUIの設計なんて言うものはデザイナーがやるべき仕事だね。今流行りのそれっぽいのとかツールチップ使いましたみたいな古典的なスタイルを真似たGUIを作ろうと思えば作れるけど、単なるモノマネなので本職のそれとは出来が違う
というわけでプログラミングスクール出身者、どこかで俺みたいな草の根出身者に出会うこともあるだろうから、そのときはヨロシクな
初音ミクなどバーチャルシンガーを好む層の中では話題となっているのだけれど、2022年3月1日にCASIOからカシオトーンブランドの新製品「CASIO CT-S1000V」が発売開始となったけれど、このCT-S1000Vが最高なので語ってしまいたいと思う。
「カシオトーン?電子キーボードの?よく家電量販店に売ってるアレ?」と反応してくれる人は流石だ。
その通りで「家電量販店に並んでる電子キーボードでネコ踏んじゃったを弾いた。それはたまたまカシオトーンだった」なんていう経験を持ってる人は少なくはないと思うけれど、CT-S1000Vはそのカシオトーンブランドの新製品だ。
「電子キーボードなんて興味ないし」というそこのアナタ、実を言うと筆者は電子キーボードのみが好きというわけでなく様々なガジェットを愛するガジェットマニアなんだ。
筆者は単に電子キーボードをパソコンやスマホ、カメラなどに並ぶものとして見ていて、言ってみればそれは古き良きFM音源のPC-9801-86やPC-9801-26K、SoundFont全盛期のSound Blasterの延長線上にあると思っているわけだよ。
例えば多くのガジェットマニアが同意してくれると思うんだけど2000年代はパソコンや携帯電話(スマホ)が面白い時代で、2010年台はカメラが面白い時代だったわけじゃん?
では2020年代って何が面白くなる兆しを見せてるのかを筆者に言わせてみれば電子キーボードシンセサイザーなんだよね!ソフトももちろんなんだけどハードもメチャクチャ面白くなってるんですよ!
そんな電子キーボードシンセサイザーが面白くなっている2022年3月1日に発売開始したのがCASIO CT-S1000Vというわけだ。
前述した通りCASIO CT-S1000Vには「ボーカルシンセシス」というボカロのようなバーチャルシンガー音源が搭載されており、このボーカルシンセシスの技術ははてな界隈でも話題となった自然な歌声を実現したCeVIO Pro(仮)のテクノスピーチが関わっている!
実際に演奏してみると何より驚くのは和音が鳴ることで、これまでのハードウェアボーカルシンセサイザーは基本的に単音だった。発音機構を複数搭載することで和音を実現する方法はあったが、単一の発音機構で和音を、しかも処理能力を上げると販売価格へ跳ね返ってくるハードウェアで価格を抑えつつ和音を実現したことは素直に驚くと言って過言がない。
しかも、歌詞はiOS/iPadOSやAndroid OSなどから入力し転送することが可能で、AIベースで構築されたアルゴリズムによりボカロで言うところの調教がほとんど必要がなく、ただ弾くだけでボカロ文化黎明期で話題となっていた神調教を実現してくれるので驚きを超えた驚愕だ(初期のボカロはベタ打ちしただけでは聴くに堪えなかったよね。それも味ではあったけれど)。
ただ、こんなことは楽器系Webメディアやガジェット系Webメディア、情報技術系Webメディアなどが既に伝えているし、今はYoutubeもあるのでボーカルシンセシスへフューチャーしたレビューなんてのは(何故か海外を中心に。日本勢なぜ興味が薄い?)Youtubeで観て聴くことが出来る。
CASIO自身もそこが推しの1つであるようだし全面に出しているけれども、ガジェットマニア、シンセマニアからすると注目点はそこだけではない。何なら実際にCT-S1000Vの開発者だって「ボーカルシンセシスだけじゃないんだぞ!」と言いたいだろう。
ボーカルシンセシスは素晴らしい、ハードウェアで鳴るバーチャルシンガーはイケると踏んだCASIOの英断には敬意を表したいレベル。
確かに現状の電子キーボードシンセサイザー界隈で唯一足りないと言って良いのがボーカルシンセサイザーだ。
2020年以降アナログシンセサイザーもFMシンセサイザーもウェーブテーブルシンセサイザーも革新的で優秀なものが沢山リリースされたが、ボーカルシンセサイザーだけはそこに空白があった。
2020年以降、革新的なシンセサイザーを牽引しているのは間違いなくKORG。
KORGは2020年1月26日にウェーブテーブルシンセサイザーの「wavestate」を発売開始するのだけれど、これがかなり出来の良いシンセサイザーだった。
実は2010年代にソフトウェアのウェーブテーブルシンセサイザーとして「Xfer Serum」が登場してウェーブテーブルという方式そのものが徐々にその評価を上げて行っていた。そのなかでもSerumはソフトウェアウェーブテーブルシンセサイザーの代表格として捉えられていたんだ。
2022年現在では電子音が特徴的な楽曲でのSerum採用率は異常なほどで世界中のヒット曲を影で支える存在だ。
そんな注目集まるウェーブテーブルシンセサイザーだけど、前述した通りKORGはその機運へ即座に反応しwavestateを発売。
ウェーブテーブルシンセサイザーは複数の特徴的な音声波形を並べシームレスに繋げ、繋がった音声波形の任意ポイントを選択し発音させることが出来るという、言ってみればノンリニア音声波形編集ソフト(有名所のフリーソフトだとAudacityとかSoundEngine Freeとか)をそのままシンセサイザーにしたかのような発音構造を持つ。
シームレスに繋がった音声波形の任意のポイントを選択して発音するというウェーブテーブルシンセサイザーの方式からKORGはシーケンサーと相性が良いという発想を持ち、シーケンサー上で発音する波形や発音ポイント、音の高さ、波形に掛けるエフェクトを指定するウェーブ・シーケンシング2.0という高度なシーケンサー機能をwavestateへ搭載した。
これが凄かった凄すぎた。ウェーブテーブルシンセサイザーが流行ってることもあり、ソフトウェアウェーブテーブルシンセサイザーの中には明らかにwavestateを意識した機能を搭載したものも多数登場したんだ。
KORGの革新はこれだけでは済まなかった。2020年11月28日にはFMシンセサイザー「KORG opsix」を発売開始。ウェーブテーブルの次はFMである。
ハードウェアFMシンセサイザーと言えば原初にして最高峰「YAMAHA DX7」が有名だけれど、シンセサイザー界隈では「リングモジュレーターとFMはシンセサイザーの2大難解機構」と古くから言われており、少しパラメーターをイジるだけで大きく音色変化がして面白いが、予測がしにくく音作りが難しいとされてきた。
そのように難解とされるFMシンセサイザーへKORGは6つのノブと6つのフェーダーを搭載し、まるでアナログシンセサイザーのように感覚的な音作りを可能とさせてしまった。
そして実際に販売開始されるやいなやopsixへの反響はwavestateを遥かに超えるものとなった。wavwstateが凄すぎたのならばopsixは一体なんなんだと。こんな簡単に音作りできるFMシンセサイザーがあって良いのかと。でも我々の前へ確かにopsixは存在する。
しかしKORGの革新はwavestateとopsixだけでは終わらない。2021年8月8日「KORG modwave」が発売開始する。
modwaveもwavestateと同様にウェーブテーブルシンセサイザーで、次の試みは何と物理エンジンを搭載してきた。シンセサイザーに物理エンジンだぞ物理エンジン!
物理エンジン上でボールを転がし、その位置によって割り当てられたパラメーターを変化させるという機構だけれど、ボールには反発係数や摩擦係数を設定することができ、更にボールが転がるフィールドへ凹凸を作ることで直線的なボールの軌道すらも歪ませることが出来るようにした。
もちろんwavestateで得たモダンなウェーブテーブルシンセサイザーのノウハウを反映しつつmodwaveへ最適化した高度なシーケンサー機能である「モーション・シーケンス2.0」も搭載しており、なおかつ、ウェーブテーブルとして読み込む音声波形になんと前述したソフトウェアウェーブテーブルシンセサイザーSerumの音声波形もインポート可能としてしまった。大胆不敵すぎる!
こんなKORGの様子を見ていればライバル各社も大人しくしているはずがなく、Rolandは過去に製造販売した名作シンセの再現であるBoutiqueシリーズへあの小室哲哉が好んで利用した銘機JD-800の再現「Roland Boutique JD-08」を追加!Boutiqueシリーズへいつか追加されると言われていたが切り札を使うなら今しか無いと出してきた!
YAMAHAは2020年5月にライブパフォーマンスを意識した61鍵ステージキーボード「YC 61」を、更に鍵盤数を増やした「YC 73」「YC 88」を2021年1月23日に追加販売する。
その中でも特にYC 88はYAMAHAがアコースティックピアノの鍵盤を再現することに注力したステージキーボードで、そのタッチフィールは幼少期からピアノを習っていたものほど評価すると言われており、プロのピアニストからピアノ演奏系Youtuberまでが愛用することを現に見ることが出来るほどの完成度!
KORGは革新、Rolandは銘機、YAMAHAは演奏という激アツな2020年代の中でCASIOはCT-S1000Vで勝負しようというわけだ。
筆者は言ったCT-S1000Vはボーカルシンセシスだけではないと。
CT-S1000Vのボーカルシンセシス以外の特徴は何と言っても新しいAiX音源と、そのAiX音源を活かすために設けられたK1〜K3として割り振られている3つの物理ノブ!
カシオトーンと言われて何をイメージする?楽器音色選んで、リズム鳴らして、鍵盤叩いて、ハイ終わり。これだろう?
他に出来たとしてもデモを再生したり、サラウンド機能をONにしたり、ベロシティ感度(タッチ感度)を変えたり、残響感を調整したりとそんなもんだ。
あぁCASIOは鍵盤が光るやつもあるな。オモチャも含めて家電量販店で最も売れる鍵盤楽器はCASIOっていう地位を確立した大ヒット商品で大事な存在だが本題とは違う。
カシオトーンは楽器音色選んで、リズム鳴らして、鍵盤叩いて、ハイ終わりだが、カシオトーンであるにも関わらずCT-S1000Vは違う。
シンセサイザーを少しでも触ったことある、もしくはシンセサイザーで音作りをしている動画などを観たことがある、またはシンセサイザーを中心としたいわゆるマシンライブを観たことがある人ならシンセサイザーがミョンミョン鳴ったりミョーンミョーン鳴ったり音の長さや高さが変わるのを観たことがあるだろう。
他にはEDMなどの電子音楽が好きな連中には籠もった音が段々と明瞭にフェードインして行く定番の変化をよく聴かないか?
実はそれCT-S1000Vに搭載されている機能で実現可能なのだ!
そしてそれら変化をさせるパラメーター調整に利用可能なK1〜K3として割り振られている3つの物理ノブの存在が非常に大きい。
いや確かにアナログシンセサイザーの一般を考えればノブが3つというのは非常に少ない。もしシンセサイザーに詳しい人がこれを読んでいるならば「メニューに潜るんだろ?」と言うだろう。返せる言葉は「その通り」だ!
ただ、ノブがゼロなのと3つあるのとでは全く違う。音作りでも実際のパフォーマンスでも物理ノブはあったほうが良いに決まってる。
しかもよく考えてみろコイツはカシオトーンだぞ?楽器音色選ぶだけの「あ の カ シ オ ト ー ン」だ。
CT-S1000Vはカシオトーンなのにリード作ったりベース作ったりパッド作ったりドラム作ったり出来るようになったんだよ!
しかも61鍵で最大発音数64和音で最大パート数3だ。カシオトーンには唯一の良い部分として豊富なプリセット楽器音色があるけれども、そのプリセット楽器音色は802種類もある。アルペジエーターだって150種類もある。バーチャルシンガーもある。ステレオスピーカーもある。ノブも3つある。
これ値段いくらだと思う?55,000円だぞ?5万円台で10和音鳴れば御の字、普通に5万円台の単音モノフォニックシンセサイザーが存在するシンセサイザー界隈で64和音だぞ!?
アコピ鳴る、エレピ鳴る、ギター鳴る、ドラム鳴る、SFX鳴る、ボカロっぽいもの鳴る。802種類のプリセット楽器音色をレイヤー・スプリットで最大3パート重ねられて同時に鳴らせる。
おいおいおい・・・おいおいおいおい!55,000円!?カシオトーンなのにミョンミョンできるブンブンできるパワワワワできるシュオォォォできる、それが55,000円ってアンタ、中高生が親におねだりしたらワンチャン買ってもらえるレベルの価格帯じゃねぇか!
ボーカルシンセシス確かにスゴイよ!?でもCASIO CT-S1000Vは55,000円で買える64和音ポリフォニック・3パートマルチティンバー・バーチャルアナログ/ボーカルシンセサイザー(スピーカー付き)であるという事実の方にこそビックリするわ!
CT-S 1000Vを家電量販店は店頭に並べるべき、そして店頭に並んだCT-S 1000Vをアナタたち皆さん触ってみるべき。ピアノ経験者・シンセサイザーマニア・バーチャルシンガー好き・DTMユーザーはなおさら触ってみるべき。何度も言うけどコレ55,000円だぜ?嘘でしょと。
(トラバへ続く)
ケツワープとは、スーパーマリオ64に存在するバグ技を使った移動方法である。
これを使うことでシーケンスブレイクやマリオの加速移動によるショートカットに使えるため、TASでは頻繁にこの技を見かけることができる。ケツワープを多く利用する動画には「ケツゲー」などのケツに関するタグが付けられる事もある。
ちなみに「ケツワープ」はニコニコ動画内での通称。海外ではBLJ、すなわちBackwards Long Jumpと呼ばれている。意味は「後ろ幅跳び」。 後ろ幅跳びのモーションがケツを地面や壁に擦り付けているように見えるので「ケツワープ」と呼ばれている。 海外勢がケツワープという呼称を知り、「実用的で直感的」と評して話題になったこともある。
https://dic.nicovideo.jp/a/%E3%82%B1%E3%83%84%E3%83%AF%E3%83%BC%E3%83%97
バスタがスポンサードなんじゃないの? 高速バス-バスタ着のシーケンスを入れる必要があってあんな展開になってしまったのでは。
この部分は「神話的試練」として描かれていて、フィクション内でも飛び抜けてあらゆることに現実感が薄い。選ばれし者が最後は独力で約束された勝利の剣を抜いて悪魔を打ち払う儀式を超えてめでたしめでたしとなった。それはいい。ただ次のシーンで日常に戻るので、ふつうに観ていたらふつうに唖然とすると思う。
いやマジでそりゃないだろ。U世界で解決できなかったの? あの正義マンがアイツというわりと王道なルートは却下されたの? 現実世界で救われた竜の傷が治るシーケンスがあったんちゃうの?等いろいろあるが、やはりバス移動シーケンスを入れるためには直接対決、というふうにねじ曲がってしまったのでは……
物語全体にも突っ込みポイントは色々あるけど、演出で十二分にカバーしていると思う。それを越えてラスト付近には不自然さがにじみ出てしまっているので、どうにもならなかったんだろうなあ、というのが現時点での俺の推測