はてなキーワード: ライブラリとは
フロントエンドにクリーンアーキテクチャとかDDDの考え方入れようとしてみたんよな。
具体的には、外部APIやローカルストレージとのやり取りをlinterで限定したり、業務知識はライブラリに依存しないEntityとしてモデリングしたり、
あと、Service層みたいなの導入して、テストしにくい処理とかは抽象化してDIできるようにしようとした。
テスト時にモックをDIせずにglobalスコープで上書きしたり、コンポーネントがAPIから取得したDTOみたいなデータに直接依存してたり、バックエンドと文化がだいぶ違うなって感じた。
そもそもクリーンアーキテクチャとかDDDってフロントに適用するもんじゃないのか?って疑問も湧いてきた。
バックエンドだとフレームワークに依存しすぎないようにして、例えばSpring+RESTからgRPCに移行なんてのもクリーンアーキテクチャの思想に則って作ってれば規模にはよるけどそこまで大きくならなかったりするけど、
ReactからVueに切り替えるって考えて、どんなに設計頑張っても、それってほぼ作り直しになるだろうし、バックエンドほどのメリットも感じられない気がする。
俺が目指してるのってなんか根本的に間違ってる気もするんだが、どうなんだろうか?
フロントエンドの人教えてー
かれこれ仕事で10年、学生の頃も合わせると20年ぐらいプログラミングに関わってるけど、駆け出しエンジニアみたく「作りたいものがない」ってずっと言い続けてる。
自分が思う大体の課題はすでにサービス化・ライブラリ化されているか、ちょっとそこら辺のサービスを組み合わせれば解決しちゃうんだよな。
注意:AI批判目的ではありません。単なる考察結果の共有です。どちらかというと私は思想的にはAI推進過激派です。また、ここでの推測はすべて外れている可能性はあります、あくまで推測です。
DMMボイスという名前から「にじボイス」という名称に変更された。主な変更点は以下。
それ以外は本記事の内容はすべて当てはまるので、以下「DMMボイス」となっている箇所は適宜「にじボイス」へ読み替えて呼んでほしい。
最近AI界隈(?)で話題になっている、20人分のアニメ調キャラクターの声で感情的な音声を簡単に生成することができるAIサービス。
それの学習元に、エロゲーのテキスト音声データが使われているのではないかという話。
まずは性能がかなり高くて楽しいのでみんな遊んでみてください。(そして知ってる声優がいないか探してみてください。)
現時点では何のフィルターもなく、どのような卑語や卑猥なセリフも発話させられる。
ただ、ある特定の雰囲気のパターンのみなぜか音声合成させると吐息のようなものになり、入力文章からかけ離れてしまう。
それは「ちゅぱちゅぱれろれろ」だ。
他にも、例えば「んじゅぷんくっちゅぱ……じゅ……れちゅはぁ……」や「ちゅぷぷっ、んちゅぅ……ちゅくくっ、むちゅぅ……ぢゅるっ、ちゅちゅぅっ」等を試してみてほしい。
ひらがなですべて書かれているので、発音は明確にはっきりしているはずだが、それでもなぜか発音できず吐息のようなものとなる。
一方で、並びはそのままのまま「ふゅととっ、んびゅぅ……こゅねねっ、むびゅぅ……ぞゅけっ、たゅたゅぅっ」や「にゅべべっ、おにゅぅ……にゅけけっ、めにゅぅ……づゅれっ、にゅにゅぅっ。」等は、きちんと文字通り発音される。
さらに、単純に全てカタカナにして、「チュパチュパレロレロ」にしてもきちんと発音される。またちょっと並び替えて「ぱちゅぱちゅろれろれ」は発音される。その他、適当な意味をなさない「ちゅかちゅほぱれもふい」等のランダムな文字列にしても発音される。
他にも、私が試してみた限りでは、上述の謎の雰囲気のテキスト群以外の文章はほぼ正確に文字通りに発音される。
以上のことから、学習データには「ちゅぱちゅぱれろれろ」やその他の上記例のような特定雰囲気のセリフに対して、「その文字の通常の発音通りでないような音声」が対応しているようなデータが使われていることが推測される。
(念の為に書いておくと、音声合成の学習にあたっては、音声とその音声が何を喋っているかというテキストのペアを、大量に学習させる。)
余談であるが、カタカナの「チュパチュパレロレロ」は発音できるがひらがなの「ちゅぱちゅぱれろれろ」は発音できないという事実からは、古くからの音声合成での「日本語文章→音素列(簡単に言えば読みのカナ列)→音声」という流れの単純な音声合成だけでなく、元の日本語からの情報も音声合成に入力していること推測できる。
元の日本語テキストに対して、その音素列に加えて、大規模言語モデルのエンコーダーモデル、いわゆるテキスト埋め込みも音声合成のテキストエンコーダ部分へ注入するというのは、近年の感情豊かな音声合成界隈での一つのトレンドである。
音声合成にあたりAIが「発音の仕方」だけじゃなくて「セリフの意味」も理解する、というわけである。
例えば「ちゅぱちゅぱれろれろ」も、単独では正常な発話ができないが、「はてなは、匿名性を活かした自由な表現が可能となる場として、ちゅぱちゅぱれろれろ、はてな匿名ダイアリーをご利用いただきたいと考えております。」等に文中に紛れ込ませると正常に発話ができること、また文章全体の示す感情によって途中の声音のテンション等が変わること等も、これらの帰結である。
さて、我々は「れろれろれろ……ちゅぱっ、ちゅぶっ……んちゅ、れろっ……ぺろ、ぺろっ……んちゅぅ」のようなテキストが文字通りの発音と対応しない、そのような状況を知っているはずである。そう、エロゲーだ。
エロゲーにはチュパ音という文化がある。これはヒロインが主人公にフェラチオをするシーンで、ヒロインの声優がそのおしゃぶりシーンを汁音たっぷりに演技をするものである。
そこでは、「あぁむ、じゅぶ……じゅぽじゅぽ……ちゅるっ、ちゅ、ちゅっ、ちゅぅぅぅぅ……んっ、んっ、んんっーー!」のようなテキストに対して、そのテキストの通常の文字通りの発音からはかけ離れた、しゃぶりまくり水音出しまくり啜りまくりの演技が音声として与えられる。
よって上記挙動から、DMMボイスの学習元の少なくとも一部には、エロゲーから抽出したデータが使われているのではないかと推測することができる。
界隈では有名な事実だが、エロゲー(R18に限らずノベルゲー一般)からは、1本だいたい(ものによるが)20時間程度の音声とテキストの両方を(多少の知識があれば)大量に抽出することができ、音声合成や音声認識等の音声に関するAIの研究においては非常に貴重なデータとなっている。
よって、大量の「テキストと音声のペア」が必要な音声合成では、特に表に出ないアングラなところで、ひっそりと学習に使われることが多々ある。また特定の声優の声を出そうという意図はなくても、いわゆる音声AIの事前学習モデルとして、すなわち日本語の発音の仕方をAIが学ぶときに必要な大量の音声データとして、そのようなデータを使うことは、一般的とまでは言わないにしても、あることである。
ましてやDMMである。エロゲープレイヤーならば、近年の衰退しつつあるノベルゲー文化はかなりの部分をFANZAに依存していることをすでに知っているだろう(いつもお世話になっております)。
以上のような理由から私はエロゲーが少なくとも学習データに含まれているのではないかと推測したが、そもそものきっかけは、それより前に、単純にいろんなキャラで音声合成させて遊んでいたら、
少なくとも私の耳には「あれこの人あの声優じゃん?」というキャラが何人かいたからである。
久世凛さん(くん?)の人はたぶん声優として有名なあの人だし、ノエラちゃんとか多分一般でも最近いろいろ有名なんじゃなかろうか?(元エロゲー声優出身でそれから表に出てきて大成功していることで有名)
月城 美蘭ちゃんのキャラは某シリーズの某キャラがめっちゃ好きです。
他にも声優に詳しい方だったら、誰の声か分かるキャラが数人はいるのではなかろうか。
さらに実験を重ねていると、エロゲーが学習に使用されていると推測されるもう一つの事象を発見した。
それは「おちんちん」という単語を含んだセリフを音声合成させると、不自然に「おちんちん」の1番目の「ん」がきれて「おちっちん」のように音声合成されるという現象である。
(実際は「おちっちん」ほど極端ではないが、明確に2番目の「ん」の音が通常の発音よりもかなり弱く、不自然に途切れた印象の発音になっている。「おちんつん」等にして比較するとより違いが明確になる。)
このことから、「おちんちん」という単語がそのまま発話されないデータが学習元に多いのではないかと推測できる。
エロゲープレイヤーならば知っているだろうが、大半の商業エロゲーでは規制から「おちんちん」という文字は「おち○ちん」と伏せ字になり音声ではピー音が入る。
このような音声の内部の音声データは、伏せ字部分が抜けて発音されていることが多い(ピー音がそのまま入っているものもある)。
このことも、エロゲーの音声データがDMMボイスの学習元として使われているという推測を支持している。
追記。ブコメ等で、「膣」がなぜか「ナカ」と発音されるという現象の報告が多くあった。また試すと「ナツ」と発話されることも多い。これについて、私よりも音声学に詳しいであろう増田の観察があったのでリンクを貼っておく: anond:20241105060042
端的に言うと、データセットに「膣内に出して……!」等のセリフで「ナカに出して!」と発音されていることが多いことから、本来の読みである「チツ」と「ナカ」との混乱がテキストエンコーダ部分で起きた結果の現象だと推測される。
引用になるが「膣はあけぼの。膣は夜。膣は夕暮れ。膣はつとめて。」を音声合成させてみるのを試してみるとよいだろう。
DMMボイスに対して学習元等の問い合わせをしている人たちが数人はいるようで、開発者サイドのそれに対するリプライの文章から抜粋する。
https://x.com/1230yuji/status/1852914053326483685
「音声学習データは音声データの大量購入、機械合成、収録で取得しています。具体的な情報は企業秘密にあたるため開示できません。」
ここで「音声データの大量購入」という箇所がひっかかる。そう、界隈にいれば知っている人が多いだろうが、音声とテキストのペアのデータセットで、大量購入できるようなものはほぼない(あったら喉から手が出るほど欲しい)。
さらにまた、DMMボイスはアニメ調のキャラクターの音声合成が売りである。そのようなデータセットで、大量購入できるようなものはほぼない(あったら喉から手が出るほど欲しい)。
つまり、ここでの大量購入はエロゲーの大量購入を指しているのではないかと推測することができる。(もしくは、少し前に触れた、すでに公開されているそのような音声データセットから流用したか)。
追記となるが、DMMボイスの利用規約自体が少しおかしいのではという議論を提起している動画があったので紹介しておく: https://www.youtube.com/watch?v=tkBGBVjOIZk
(以前ここで第8条1(1)について書いたいたが、この文言自体は利用規約で一般的なもののようだ、申し訳ない)
音声AIについて昨年5月あたりから品質が大いに向上したことで、AIカバーや声優音声の無断学習等の文脈で、様々な議論が発生している。最近では有名な声優たちがNOMORE無断生成AIというスローガンで大々的に活動している。
これは、声優たちが、自分たちの声が無断でAI学習に使用され、その上で収益化をされていることに対して反対して展開している運動だ。
(この運動に対する是非等の意見は私は持たない、最初に述べた通り私はどちらかというとAI推進過激派である。)
また、このような運動がおこる背景として、(イラストでかなりバトルが発生しているが、)AI学習における「声の権利」との法的な取り扱いが現状の法律だと不明瞭な点から、法律とくに著作権に訴えることでは現状の使われ方に対して法的措置を取りにくいところにある。
このようなAIと音声の権利については最近の柿沼弁護士の記事が参考になるので詳しくはそちらを読んでほしい。
https://storialaw.jp/blog/11344
私自身は法律の専門家でもなんでもないので法的なあれこれについて述べることはできないが、理解している範囲で述べる(間違ってたらすみません)。
音声AIの法的議論では「パブリシティ権」という概念が重要になる。これはざっくり言うと、有名女優の肖像を勝手に商品の宣伝に使ったりすると、その女優が得られたであろう広告収入が奪われたことになるのでダメ、という感じのものである。
このパブリシティ権は現在の日本の法律の文面では明文化されておらず、どこまでがパブリシティ権にあたるのかということについて、特に音声については、未だ判例がなくはっきり分からない。
しかし有名人の氏名についてはパブリシティ権は認められているので、もしDMMボイスが、「あの人気声優○○さんの声で音声合成できる!」としてこのサービスを提供していたら、正式に契約を結んでいた場合に得られたであろう声優の利益のことを考慮すると、声優の許諾がない場合ほぼ確実にダメだと思われる(判例待ちなので断言はたぶんできない)。
だがDMMボイスは、学習元の20人分の声優が誰かや、またその声優からの許諾を得て20人分の声優を使っているかを、うまい具合に言及を避けている。
声優好きな人は声のみからその声優が誰であるかを判定することができる人も多いので、そのような場合に、声優名を伏せていたとしてもパブリシティ権の侵害にあたるかは、おそらくかなりグレーで判例待ち事案である。
そのような意味で、このDMMボイスは(もし裁判等や運動が起これば)音声AIと声の権利に対する法的な解像度を上げ議論を起こすのに貢献する事例になるであろうことは間違いない。
何度か述べている通り、私はAI推進過激派寄りの人間であり、NOMORE無断生成AI等の、最近の声優たちやアンチ生成AIの人達による運動に対しては、事態を注視しているだけの中立的(むしろ逆にガンガン生成AI使っていこうぜという)立場である。
また今回のDMMボイスの公開や今後のサービス展開に対しても、ことさらそれが悪いことだとか、そのようなものは避けるべきだとか、については思っておらず、むしろ「いつか来るだろうなあと思っていたものを大きい企業がようやく出してきたかあ、これで法律や声の権利についての議論や判例が進むかもな」といった程度の感想である。
(そしてDMMボイスのような技術が可能なこと、また実際にそれを学習させてみて個人で楽しむことは、私自身一年前くらいからずっとしており、そこから音声AI界隈をウォッチしていた。)
しかし、最近の声優サイドの運動や時流を見ると、せめて生成できる20人分の声優の許諾を取っているかについて言及しないままでは、アンチ生成AIサイドの批判の格好の的になるだけなのではないかと感じている。
技術的なことになるが、最近の音声AIでは、実在する声優の声から学習させて、しかし音声合成する際には非実在の人物による声音の音声合成が可能である(例えば声優二人の中間の声等)。
それが権利的や法的や倫理的にどうか等は置いておいて、DMMボイスは少なくともそのような措置を取るのがよかったのではないかと個人的には感じている。
(ただ、私の耳が悪いだけで、ホントは「この人の声だ!」と思ったキャラクターは実は全然そうじゃなかった可能性もある。しかしこの「「誰が喋っているかが明確に100%には断言できない」ところが音声AIと声の権利の議論の難しいところである。)
公平のため、最後に「ちゅぱちゅぱれろれろ」が発音できない現象について、エロゲーがDMMボイスの学習に直接使われたという以外に他のありうる可能性をいくつか書いておく。
また端的にありえるのは、他の「ちゅぱちゅぱれろれろ」が発音できないような音声AIをそのまま流用している可能性である。一つ「ちゅぱちゅぱれろれろ」が正常に発話できない音声合成AIライブラリを知っているが、それはデモ動画に私の好きなエロゲーのセリフが堂々と出ていたことから、それの学習元にエロゲーが入っていることはほぼ確実である。
また他に、DMMボイス自体を開発する際にはエロゲーデータは使っておらず許諾を得た声優のみから学習させるが、その学習元となった事前学習モデルにはエロゲーデータが入っていた、という可能性である。前に少し触れた通り、現在の生成AIには学習に大量のデータが必要であり、まず音声AIが発音の仕方を学ぶために、無から正常に発話できるようになるまでには大量のデータが必要である。そのような学習は非常にお金と時間がかかるため、生成AIでは「まず大規模なデータで学習させて事前学習モデルを作る」「次に、その事前学習モデルに対して、話させたい話者のデータで少量追加学習する」というアプローチが取られる場合がほとんどである。この Permalink | 記事への反応(18) | 07:53
https://note.com/p_and_w_books/n/neee921ea91a9
https://note.com/p_and_w_books/n/nf373db52eab9
・そうですか、といったところ。
■鯨井氏のジャッジ
・まえがきでは個人的な狂気を重要視するというようなことを言っている。要するに、ユニークでぶっ飛んだものを読みたいということ。そういう欲求をカッコつきとはいえ「狂気」という言葉に託したのはよくなかったとおもう。「おまえら創作者はみんな創作に情熱を燃やしてそれに狂ってるはずだろ!なあ!」というのはいかにも一昔前のフィクションに出てくる「天才」像で、古臭くて偏狭ではないか。
・それでいて、最後に他者への回路としての「コミュニケーション希求力」を評価基準に置くのがよくわからない。いや、わかりはする。閉じているように見えつつもその暗闇のなかで他者を求めもがくのが人間の普遍的なあり方であり、そうした情熱を持っているように見える作品に惹かれてしまう。その気持ちはわかるが、この文章内にかぎればあんまり文脈的につながってないのでは、と感じる。
・「コミュニケーション」を謳うのなら作者の側から歩み寄りばかりでなく、評者からの歩み寄りもすべきだった。というか、それが評論行為であるように思う。最終的に「これは自分の感情です」というような文言で閉じたのはよくなかったというか、開かれた場のコンテストでは落とされてもしょうがない。
・固有名詞問題。固有名詞の持つ読者との「共犯性」を指摘し、作品内で用いられている下北沢」「フィッシュマンズ」「クリムト展」といったワードの「共犯性」が東京中心主義につながっているのではないか、といったようなことを言っている。
・固有名詞の「共犯性」についてはそのとおりだが、基本的にはその固有名詞を使うことでどういった層と共犯関係になれるかという戦略の問題でしかないとおもう。それが気に食わなさにつながるんならそうですね、あなたは不快なんですね、としか言いようがない。
・「「下北沢」「フィッシュマンズ」「クリムト展」を使って真にその意図が伝わるのは、それを知る都会の人びと、「カルチャー」の民のみである。」→これはそうは思わない。下北沢はぼざろなどを例に出すまでもなく東京以外のひとびとにもある一定のイメージを形成しているし、フィッシュマンズやクリムトに至っては別に東京固有でもなんでもない。
たしかに並べられると東京中心的な貴族性⋯⋯というかヴィレヴァン的なサブカルクソ野郎っぽさが鼻につくところはある。
しかし、それが「カルチャー」を愛する人びと特有の一段上から世を眺める視点、優越性」に直結するかは微妙なところで、それこそ共犯者に選ばれなかった疎外感といえばそれまで。そして、そこから地方差別へとつなげるのはちょっと無理筋だと思う。
・関西弁を含めたトータルのパッケージに差別性を覚えたという感じだとおもう。作者の意図しないチャンネル(固有名詞)でヘイトが溜まっていったところで関西弁の歌が出てきて「怒り」が爆発したというところか。
・全体的には論点の設定の仕方があまり開かれていない。差別性を感じるというのであればもう少し広くわかりすい議論を行うか、あるいは関西人であるという当事者性を突き詰めるべきだったと思う。現状の文章としては後者よりなのだが、あまりに「関西人である自分」が自明のものとして最初から展開されているので、読者には「で、関西人であるあなたがなぜそこまで怒ってるんですか?」がわかりにくい。
・いろんなところで中途半端な評だと思う。
・「『見下し』ではなく関西弁の語りのある種の味わい(「特権性」という雑な表現をしてなぜか自分を「関西」に対して下位に置こうとしていたが)に対する憧憬なので『見下し』じゃないんだよ」という言い分はそうなのだろうが、それをただしくオリエンタリズムと呼ぶのだよな。
・中盤の「ここまで説明をしたうえで、「本気で思っていたらこんな書き方はできないだろう」と思われるでしょうか。」に至るまでの説得のロジックがよくわかんない。
冒頭で「なるべく感情的にならないように書く」と宣言しているのに「ここまで説明〜」までは、基本的に「自分はこうおもってこう書きました(あんたや読者の気持ちなど知らん)」と自分の感情や行為しか書いてない。
本当は全部関西弁にしたかったけど、自分の技術じゃ無理→すげえわかる。
(なんか「一首だけにしといてやった」が非関西人としての譲歩だった、とも読める。マジでこれは意味がわからない。)
・「関西の人の反応を探るために歌会に出した」パート。実際に当事者から方言に関して否定的な反応が返ってきた、と自分で言ってる。
それを「連作という文脈で解消できるのではないか」と考えたらしい。なんで読者がああいう作品の連続性を確認しにくい場で連作であることを前提に読まなきゃいけないのか意味がわからない(鯨井さんはジャッジだからそこらへんい対してはある程度の義務はあるとは思う)というのはまあ置いといこう。
で、「連作という文脈」がなんなのかというと、「作品の主体(視点人物)が東北人の上京者」であること。
「主体も東京出身の人間ではないということを明示することで「標準語/方言」の権力構造をとっぱらえないかと画策しました」
というのがほんとうにわからない。視点人物が東北出身だと関西弁に対するオリエンタリズムが解消されるの? 標準語と方言の権力関係が無効化されるの?? なんで???
むしろ、この作品の場合は主体が標準語の権力性に乗っかって(実際、歌の大半が標準語で書かれている)、方言を搾取してますって構造に見えませんか???
さらに問題なのは「今回の文化盗用かどうか、わたしには判別できませんでした。」とか言っているところで、いやわかってないって自覚あるなら「連作で解消できてるとおもう!」とか言うなよ。
「関西弁をマイノリティといってしまっていいのか〜」のあたりはなにがいいたいのか不明瞭だけど、つまり「東北弁は関西弁に比べてよりマイノリティ性が高いから、俺には関西弁をいじる権利がある」って言いたいの? なにそれ?
・そのあとの文章はぐだぐだしてるけれど要約すれば「憧れだから差別じゃないんです」というようなこと。サイードを読め。平凡社ライブラリにある。
・「そこに「無意識的な共犯性」「優越性」があると断罪できる根拠がどこにあるのかよくわからない」はクリティカルな反駁だとおもう。そこらへんは前述のとおり。このへんの反論内容もいちいち書き出さないがリーズナブルだと思う。
これまでいろいろな開発環境を使ってきたけど、Android Studioは本当にダメだ。
別途Javaの環境も構築しなきゃいけないし、おまけにJavaのバージョンによってはAndroid Studioとの相性が悪くてエラーが出ることも多い。
最初から最低限必要なものは揃えてくれればいいのに、後からどんどん障害物が出てくるから本当にイライラする。
アプリをリリースするためには署名が必要なんだけど、これがまた本当に面倒。
Android Studioには「キーを生成する」機能があるけど、これが直感的じゃない。
手順を調べるのに何時間も費やしたことか。コマンドラインからキーを生成するのか、GUIでやるのか、どっちにしても「なぜこんなに複雑にするのか」と思う。誰が得するんだ、この面倒くささは。
が、これまた問題が出てくる。ビルド時にエラーが出ることが多い。
何が悪いのか全然分からないし、エラーメッセージもわけがわからない。
ググって出てくる情報も正解とは限らない。結局時間だけが無駄に過ぎていく。無限ループに入った気分。
こうやってひたすら環境構築と闘ってきたわけだが、実際にアプリ開発に入ると今度はAPIの変更やライブラリの依存関係でまた地獄が待っている。
新しいバージョンが出るたびに、対応しなきゃいけないことが山積みで、これをやっていると「何のためにこんな苦労をしているのか・・・」と思わずにはいられない。
結局Android Studioを使っていると常に試行錯誤の連続で、楽しいというよりはストレスがたまるだけ。
正直、他の言語やフレームワークに目を向けようかとも思ったこともある。
React NativeやFlutterなんかは環境構築がスムーズで、すぐに開発に入れる印象がある。
なのにAndroid Studioに戻ってくるのは、Androidの市場の広さが魅力的だからだろうか。
でも何度もこの環境で悩まされると、本当に心が折れそうになる。
blastmailを触ってみたけど、インターフェースが使いづらい
Mailchimp、Brevo (旧Sendinblue) も同じく
WiLL Mail、配配メール → 公式サイトに料金が掲載されてない、問い合わせしないと料金が分からないとか無理
やりたいこと
Ruby全盛期のちょっと後くらいからWebエンジニアをしているんだけど、React.jsがいろんな意味で扱いにくすぎる
関わっている人にもフロントエンドエンジニア(=React.jsしかやりたくない)が多いので毒気で吐き出しておきたい
ライフサイクルや裏側の仕組みをなんとなく理解していないと使えず無意味に複雑
useEffect一つとっても~~の場合はuseStateでいけるとかTIPS集みたいのがあるけど、そういうウンチクみたいなのわかってないと使いこなせないのは仕事増えてない?
仮想DOMで高速化とか言っているけどライフサイクル理解しないと速度でないよね?いつものプロジェクトそんなにちゃんと書けてる?jQueryで良くない?
ベストプラクティス知っててちゃんと設計しないと改修する工数がすごいことになる
そもそもプロジェクトにおいて作るものは都度変わっていくので完璧な設計は存在しない。なので、設計をきちんとしないとカオスになるのはReact.jsのほうが間違っている
React.jsと別のフロントエンドライブラリ比較するだけで空気悪くなるので正直フロントエンドエンジニアの人の前で話せない話題がある
なぜかフロントエンドライブラリをReact.jsしか許さない人が多いのはなぜ
言うまでもないけどNext.jsの記法はひどすぎる。Remixは良いけどそれならもうReact.jsじゃなくていい
数少ないメリットだったエコシステムだけど、もうReact.jsしか対応していないことなんてほぼ無い
フロントエンドリッチでアクセス数ものすごいサイトを運用するのにフロントエンドライブラリが必要だった時代にReact.jsを開発する必要があったのはわかるけど、もっと便利なフロントエンドライブラリあるし正直時代遅れなのを理解してくれ
ちなみに今というか1年くらい前がプログラマ界その10年に1度の大不況
ウチでも二人切られたが一人は昔やってて今もう書けない保守とかやってた人もう一人はReact+JS
React+JSはJavaでBE主力の俺がすぐちょこちょこ書くようになって今半分くらいは俺が書いてる
知らない言語+ライブラリなら3週間で生産性プラス、3ヶ月で追いつくといつも言ってるし実際今回も大体そうだった
C#のサービスも二つくらいあるけど必要ならそれもやるしJavaできればまあそこそこはすぐできる
言語とフレームワークを指定してくるとこはその3週間も待てないようなとこ+言語ができるとかがスキルになるようなとこだからしょうもない仕事の可能性大きいぞ