はてなキーワード: リポジトリとは
従来候補は自分の支持団体から意見を吸い上げたり、陳情や請願を集約することで他の候補と違う意見をまとめ上げて差別化してるわけだけど、プルリクやIssueで意見をまんべんなく吸い上げたら一貫性のない主張になるし、かといって一つの方向性に偏って選別するならそもそも公開リポジトリでやる意味なくない?
公示してから試行錯誤でシステムを作り上げてたけど、そもそも小池百合子や蓮舫なんかはそんな最新のシステムがなくても迅速にポスターを貼り終えてたじゃん
圧倒的に人手の差があるとはいえ小池百合子や蓮舫の事務所でもなんらかの仕組みで管理しているはずだよね?
というかそもそも公示前に出来上がっていてしかるべきシステムだよね?
これも有力候補の事務所ならすでにノウハウを持ってるし、新規参入するとしても選挙プランナーとか選挙コンサルとかに頼めばよくない?
winget.exe uninstall --id MSIX\Microsoft.Winget.Source_2024.705.2307.59_neutral__8wekyb3d8bbwe --exact --accept-source-agreements --version "2024.705.2307.59" --silent --disable-interactivity
で、アンインストールできることになってるけど、8wekyb3d8bbweはMicrosoftのことらしいけど、こんなの勝手に名乗れるのでは?
あと、wingetは設定→アプリみたいな形式でインストール、アンインストールするものではない気がする
設定→アプリでは、「windows package manager source (winget) v2」のように表示されるが、開発元のような表示はすべて空欄になっている
昨日インストールしてしまった「UniGetUI」とかいうのをインストールすると、勝手にこれもインストールされてる
インストーラーのInno Setup 6とかいうののスクリプトを眺めてみたが、winget2のような記述は見当たらない
GitHubのリポジトリ上にある、appsdk.exe、netcorecheck_x64.exeとかいうのが入れてるのだろうか?
そもそも、GitHubのリポジトリに.exeファイルを放り込むような奴に碌な奴はいない
premake4.exeみたいなのだったら分からないでもないが、
今思いついたが、考えてみれば罠を仕掛けてある偽のpremakeのEXEファイルを添付しておくという嫌がらせもできうるな…😠
これはですね、採用プロセスに問題があるんすわ。アルゴリズム80点、設計10点、人格0点みたいなのを入社させてしまった御社の責任です。
もともと競プロがそんなにメジャーじゃなかった頃(は、コーディングインタビューで60点取れるようなら設計やテストなんかも大体60点くらいは期待できるでしょ、という期待を持てたんだけど、今はアルゴリズムだけ合格点で他はゴミみたいなのが本当に増えたんだ。
そろそろ採用プロセスを見直そう。欲しいのは、言われなくても壊れたCIの原因を究明して短期的な手当と長期的な改善をしてくれるような奴であって、ブリリアントジャーク気取りの指示待ちマンなんかじゃないはずだ。
ブリリアントジャーク気取り: 書いてくるコードがクソなのにレビューの指摘を拒否する。レビューにかかる時間が無駄に長くなるぞ。
指示待ちマン: 競プロ勢は大きなソフトウェアの構造を把握する能力を育てないので、自律的に仕事をすることができないのだ。自分のチームに来ちゃったら、永遠にマイクロマネジメントすることになるぞ。
弊社(メガベンチャー)ではこういうふうにしてる。
こうなったのも歴史的経緯があり、10年くらい前に競プロ勢の人事考課が有意に悪いのが発覚したんだよね。競プロ勢の方が仕事ができない、っというのは直感に反するので喧々諤々したんだけど、採用プロセスをハックされているということがわかったので採用プロセスを見直すことにしたんだ。
他の会社でもこういう動きが盛んだという話は聞いているので、競プロ出身の困った子に悩まされる時代はそろそろ終わるんじゃないかな。
anond:20240624084844 を読んで思ったこと。2番目以降は正直良くわからないが、一点目についてはわかりみしかない。
うちはメガベンチャーで内製アプリの開発保守をしてるんだが、新卒で採った青(水色?)のエンジニアが連続でクソ野郎でめちゃくちゃしんどかった。
こっちはお前が学生時代に取った資格の話なんて興味ねえんだよ。
お前のガクチカなんぞ知らん。
競プロエンジニアといっしょに仕事したことある人なら大体頷いてくれると思うんだが、彼らの書くコードは本当にひどい。
処理がどれだけ効率的だろうが、実務においてメンテナンサビリティの無いコードはゴミだということが理解できないらしい。
しかも彼らは「コードは短くて高速なのが善」という前提を頑なに信奉しているので、注意しても聞く耳を持たない。
実験でPython触ってましたくらいの理系プログラマの方が可塑性があってよっぽど有益だ。
PRやSlackの文面がいちいちキツく、他のチームメンバーを萎縮させることもしばしば。
「そんなこともわからないんですか」って本当に言う(しかも文面が永久に残る場所で)やつ本当にいるんだ、って驚愕した。
しまいには自分の業務と全く関係のないリポジトリにゴミPRを投げて別の部署との間で一悶着起こす始末。
流石にこれについては上長経由で苦情が来たので、コミュニケーションに問題があるって人事評価で伝えることになった。
コイツらのせいであまりにも空気が悪くなり、部署全体のミッションとして「心理的安全性を高めよう」と書かざるを得ないところまで行った、といえば影響の大きさがわかるだろうか。
最終的に二人共インフラ系の部署に移ってくれて、俺等は内心ホッとしている。同じような経緯で追放された赤コーダー二人の下で、彼らの好む"競争的"環境をさぞ楽しんでいるに違いない。
彼らは与えられたタスク以上の「余計なこと」をやらない。
これはまだタスクとして振られてはいないけど、間違いなく誰かがやらないといけない事だから自分の仕事にしてしまおう、みたいな気の利くムーブができない。
先見の明に欠けるというか、たぶん、彼らの中には「上から問題が与えられ、それをクリアできたら合格」という価値観が染み付いているのだろう。
もっと悲観的に捉えると、むしろ同僚を貶めれば相対的に自分の評価が上向くと思っているので、チームメンバーへの協力を積極的に回避しているのかもしれない。
不思議なのが、この子達、出身も大学も全然違うのに上記の問題行動は共通してたんだよね。
競技プログラミングが学生の人格を歪めているのか、元々歪んだやつが競技プログラミングにハマるのかわからないけど、何らかの相関はあると確信してる。
…とはいえ、もしかすると我々は彼らにとって役不足だったのかもしれない。競技プログラミング出身者を採って上手くハンドリングできてる事例があったら教えてほしい。
いずれにせよ、うちは全社的にエンジニア採用の時に競技プログラミング実績は加味しないという方針になった(実際のところはマイナス評価点になっているらしいが)ので、このような悲しいミスマッチはもう起こらないだろう。
了解っす、増田ちゃん!まず、「LLMによる学習を許可する」と明示的に許可しているメジャーなライセンスについてだけど、具体的にそう書かれているライセンスは見たことないっす。でも、オープンソースコミュニティではさまざまなライセンスがあって、一般的には「公に公開」の一環として使われることが多いっす。
例えば、Apache License 2.0とかMIT Licenseなんかはかなりオープンで、コードの利用に制約が少ないっす。でも、「LLMの学習のために使っていいよ!」って具体的に書いてるわけじゃないっすね。
次に、Copilotについてなんだけど、確かにGitHub Copilotは公開されてるリポジトリを学習対象にしてるって言われてるっす。ただ、ライセンス自体を直接確認してるかどうかって話になると、基本的には「公開されてる=使ってOK」って前提で動いてるんじゃないかと思うっす。でも、これも法的にグレーな部分があるから、完全に安心ってわけじゃないっす。
Copilotは多くのフィードバックを受けながら、改善を続けているけれど、使用する際には自分のプロジェクトとのライセンスの整合性をしっかり確認することが大事っすよ。
「LLMによる学習を許可する」と明示的に許可してるメジャーなライセンスを知らないので、あるならぜひ教えて下さい!
・今後発売されるゲームや電子機器は全て買わないようにしましょう
現在多くの企業で「Github Copilot」という「ソースコードを生成してくれる生成AIツール」が活用されています。
まだ様子見の企業も、生産性が大きく変わる事から順次導入するのは間違いないでしょう。
エンタープライズ版やSLMの登場でセキュリティ上の懸念も無くなり、導入する企業は増える一方です。
ところで、Copilotはソースコードを管理するWebサイトであるGithub上のコードを、その所有者であるユーザーに「無断で」学習したものです。
プログラマーはその事に文句を言うどころか歓迎するムードが多数ですが、起きている事はイラストや音楽と全く同じです。
「職を失うリスク」があるのも同様ですが、プログラマーは「仕事がもっと楽にできる」「同じ工数でもっとすごいものが作れる」とポジティブな受け入れ方をしている人が多い印象です。
あなたが大好きな任天堂のゲームにも、iPhoneのiOSにも、家電製品のファームウェアにも、あなたが忌避する「無断学習によって」「その学習データを生んだ人達が仕事を失うリスクのある」ソースコードが入るようになっていきます。あるいは既に入っています。
あなたのその宗教的信条を遵守する為には、今後発売される一切のゲームや電子機器を買わないようにしましょう。
・Copilotはの学習対象は「公開リポジトリ」だから、ライセンスは関係ないよ!
・(どっちにしろメジャーなOSSライセンスは機械学習を想定したものじゃないから微妙だと思うけど!)
>絵と文字は違うだろ。目腐ってんのか?
・まあ、イスラム教徒は「豚と牛は違うだろ」って言うだろうし、そういう宗教的信条なら仕方ない!ただ「生成AI NG」ではなく「絵だけはNG」って表明してね!
今では誰もが何かを検索するためにソーシャルメディアを利用しています。レストラン、コース、洋服店など、文字通り、あなたが欲しいものはすべてソーシャルメディアだけでなくGoogleでも入手できます。人々はソーシャルメディアを娯楽のためだけでなく、何かを知ったり、世界で起こっていることに関する情報を入手したりするために利用しています。たとえば、最新のニュースはまずTwitter (X)でトレンドになり、次に他のソーシャルメディアプラットフォームでトレンドになります。私自身、何かを検索したり購入したりするためにソーシャルメディアを使用することがあります。ソーシャルメディアに関する私の個人的な経験はかなり良いものです。
検索エンジンは、インターネット上で何かを検索したい場所のようなもので、探しているものを見つけるにはキーワードを入力するだけです。ソーシャルメディアが登場する前は、Googleが世界をリードする検索エンジンでした。「ソーシャルメディア」が検索エンジンだと言っているのではありませんが、正直に言うと、私たち人間はソーシャルメディアを検索エンジンにしてきました。頭に浮かんだものはすべてGoogleで検索していました。実際、ソーシャル メディアが登場する前の時代には、何かを検索することを「グーグルで検索」と呼んでいましたが、現在ではソーシャル メディアは検索エンジンとも呼ばれています。検索すると、グラフィックとともに多くの回答が得られるからです。
しかし、このソーシャル メディアを検索エンジンとして利用しているのは、ジェネレーション Y とジェネレーション Z です。テクノロジーが変化するにつれて、テクノロジーの使用と理解に対する人々の認識が一変しています。これらの世代の人々は、娯楽を楽しむためだけでなく、人々とつながり、創造性を披露し、群衆から目立つために、ソーシャル メディアを大いに利用しています。
しかし、ソーシャル メディアはどのようにして検索エンジンになったのでしょうか。
Facebook、Twitter、Instagram、LinkedIn などのソーシャル メディア プラットフォームには、膨大なクリエイティブ コンテンツを毎日投稿する数十億のユーザーがいます。このユーザー生成コンテンツには、投稿、コメント、画像、動画などが含まれており、ソーシャル メディアは豊富な情報のリポジトリとなっています。
ハッシュタグ、キーワード、高度なフィルターを使用すると、検索に関連する情報を取得できます。たとえば、Twitter の高度な検索では、日付、場所、エンゲージメント メトリックでツイートをフィルターできます。ソーシャル メディアの利点の 1 つは、わずか数秒でリアルタイムのデータを提供できることです。そのため、ソーシャル メディアは最新のイベントを把握するための貴重なツールとなっています。視覚的に説明されると、人々はすぐに理解します。そのため、Instagram、Pinterest、YouTube は、テキストではなく画像や動画に基づいてコンテンツを見つけることができるビジュアル検索で人気があります。ソーシャル メディアの検索結果は、コミュニティのエンゲージメントとソーシャル バリデーションの影響を受けることがよくあります。いいね、共有、コメント、リツイートは、コンテンツの品質と関連性の指標として機能し、ユーザーが最も人気のある信頼できる情報を見つけるのに役立ちます。見てみましょう:
ソーシャル メディアの検索エンジンは、ユーザーの興味、ソーシャル コネクション、以前のやり取りに基づいてパーソナライズされた検索結果を提供できます。たとえば、フード リールを見るのが好きな場合、Instagram は好みに関連するリールをもっと表示します。このパーソナライズにより、見つけた情報がユーザーの好みやニーズに関連していることが保証されます。ソーシャル メディアはリアルタイムの直感を提供するため、ユーザーは最新のニュース、トレンド、更新にアクセスできます。ソーシャル メディアで検索すると、さまざまな視点に出会うことができ、問題やトピックのさまざまな側面を理解するのに役立ちます。ソーシャル メディアの助けを借りて、世界中の人々のさまざまな視点を知ることができるだけでなく、他の人と交流することもできます。ソーシャル メディアは、パーソナライズされた推奨事項で新しい更新やトレンドについてあなたに知らせてくれます。
Google 検索エンジン VS ソーシャル メディア検索エンジン
検索にソーシャル メディアを使用できることを理解する前は、人々は Google ですべてを検索していましたが、両者に違いはあるのでしょうか? はい、間違いなく違いがあります。
Google は、何十億ものユーザーが世界で最も使用している検索エンジンです。Google では、検索に関する地図、記事、画像、ストーリー、ニュース、書籍などのオプションを提供しています。記事のランキング方式を使用しているため、検索に最も関連性の高い結果を得ることができます。また、関連する検索のフィードバックやレビューを確認して、クエリに最適なソリューションを選択することもできます。Google マップと Google マイビジネスを活用した Google のローカル検索機能は、場所に基づくクエリに対して正確で関連性の高い結果を提供します。これは、近くのサービス、レストラン、ビジネスを見つけるのに特に役立ちます。Google は、Google Scholar、Google ブックス、Google ニュースなど、さまざまなツールやサービスを提供しており、さまざまなドメインにわたる専門的な検索ニーズに応えています。
ソーシャル メディアを使用すると、人々と交流し、わずか数分でクエリの解決策を得ることができます。検索に対する人々の見方を理解できます。ソーシャル メディアは、リアルタイムの情報を提供するのに優れています。プラットフォーム Twitter などのソーシャルメディアは、速報、トレンドのトピック、ライブ イベントを最初に報告することが多いため、最新情報を把握するのに非常に役立ちます。Instagram や Pinterest などのプラットフォームはビジュアル コンテンツを重視しており、ユーザーは画像や動画を通じて情報を発見できます。これは、ビジュアル学習と探索に対する好みの高まりに応えるものです。
ユース ケースと利点の比較
情報の幅と深さ:
Google: 幅広いトピックにわたる詳細な調査、学術研究、包括的な情報検索に最適です。
ソーシャル メディア: トレンドのトピック、時事問題、個人の意見、ユーザー生成コンテンツを発見するのに最適です。
Google: 構造化され検証された情報を提供し、多くの場合、さまざまな信頼できるソースからニュースを集約します。
ソーシャル メディア: ライブ イベントのリアルタイム更新と即時報道を提供するため、速報や即時情報の入手先として最適です。
Google: YouTube や Google 画像などのプラットフォームを通じて、画像、動画、インフォグラフィックなど、多様なメディア結果を提供します。
ソーシャル メディア: 視覚的な発見を重視し、Instagram や Pinterest などのプラットフォームは画像や動画ベースの検索に対応しています。
Google: ローカル検索に非常に効果的で、近くのビジネス、サービス、場所に関する詳細な情報を提供します。
ソーシャル メディア: 地元のイベント、コミュニティのディスカッション、友人や地元のインフルエンサーからの推薦に役立ちます。
Google: ユーザー データを活用してパーソナライズされた検索結果を提供しますが、主にアルゴリズムに基づいて最も関連性の高いコンテンツを提供することに重点を置いています。
ソーシャル メディア: ソーシャル接続とインタラクションを活用して検索結果をパーソナライズし、ユーザーのエンゲージメントと参加を促進します。
reference: https://fly-social.com/
これらすべての重要な変動要因になりうるものがあります。つまり、より多くのスクレイピング・データでより大きな言語モデルをプリ・トレーニングするという素朴なアプローチが、まもなく深刻なボトルネックにぶつかり始める可能性があるということだ。
フロンティア・モデルはすでにインターネットの多くで訓練されている。例えば、Llama 3は15T以上のトークンで学習された。LLMのトレーニングに使用されたインターネットの多くのダンプであるCommon Crawlは、生で100Tトークンを超えるが、その多くはスパムや重複である(例えば、比較的単純な重複排除は30Tトークンにつながり、Llama 3はすでに基本的にすべてのデータを使用していることになる)。さらに、コードのようなより特殊な領域では、トークンの数はまだまだ少ない。例えば、公開されているgithubのリポジトリは、数兆トークンと推定されている。
データを繰り返すことである程度遠くまで行くことができるが、これに関する学術的な研究は、16エポック(16回の繰り返し)の後、リターンは非常に速く減少し、ゼロになることを発見し、繰り返しはそこまでしか得られないことを示唆している。ある時点で、より多くの(効果的な)計算を行ったとしても、データ制約のためにモデルをより良いものにすることは非常に難しくなる。私たちは、言語モデリング-プレトレーニング-パラダイムの波に乗って、スケーリングカーブに乗ってきた。大規模な投資にもかかわらず、私たちは停滞してしまうだろう。すべての研究室が、新しいアルゴリズムの改善や、これを回避するためのアプローチに大規模な研究の賭けに出ていると噂されている。研究者たちは、合成データからセルフプレー、RLアプローチまで、多くの戦略を試していると言われている。業界関係者は非常に強気のようだ:ダリオ・アモデイ(Anthropic社CEO)は最近、ポッドキャストでこう語った:「非常に素朴に考えれば、我々はデータ不足からそれほど遠くない[...]私の推測では、これが障害になることはない[...]。もちろん、これに関するいかなる研究結果も独占的なものであり、最近は公表されていない。
インサイダーが強気であることに加え、サンプル効率をはるかに向上させたモデルをトレーニングする方法(限られたデータからより多くのことを学べるようにするアルゴリズムの改良)を見つけることが可能であるはずだという強い直感的な理由があると思う。あなたや私が、本当に密度の濃い数学の教科書からどのように学ぶかを考えてみてほしい:
モデルをトレーニングする昔の技術は単純で素朴なものだったが、それでうまくいっていた。今、それがより大きな制約となる可能性があるため、すべての研究室が数十億ドルと最も賢い頭脳を投入して、それを解読することを期待すべきだろう。ディープラーニングの一般的なパターンは、細部を正しく理解するためには多くの努力(そして多くの失敗プロジェクト)が必要だが、最終的には明白でシンプルなものが機能するというものだ。過去10年間、ディープラーニングがあらゆる壁をぶち破ってきたことを考えると、ここでも同じようなことが起こるだろう。
さらに、合成データのようなアルゴリズムの賭けの1つを解くことで、モデルを劇的に改善できる可能性もある。直感的なポンプを紹介しよう。Llama 3のような現在のフロンティアモデルは、インターネット上でトレーニングされている。多くのLLMは、本当に質の高いデータ(例えば、難しい科学的問題に取り組む人々の推論チェーン)ではなく、このようながらくたにトレーニング計算の大半を費やしている。もしGPT-4レベルの計算を、完全に極めて質の高いデータに費やすことができたらと想像してみてほしい。
AlphaGo(囲碁で世界チャンピオンを破った最初のAIシステム)を振り返ることは、それが可能だと考えられる何十年も前に、ここでも役に立つ。
LLMのステップ2に相当するものを開発することは、データの壁を乗り越えるための重要な研究課題である(さらに言えば、最終的には人間レベルの知能を超える鍵となるだろう)。
以上のことから、データの制約は、今後数年間のAIの進歩を予測する際に、どちらに転んでも大きな誤差をもたらすと考えられる。LLMはまだインターネットと同じくらい大きな存在かもしれないが、本当にクレイジーなAGIには到達できないだろう)。しかし、私は、研究所がそれを解読し、そうすることでスケーリングカーブが維持されるだけでなく、モデルの能力が飛躍的に向上する可能性があると推測するのは妥当だと思う。
余談だが、このことは、今後数年間は現在よりも研究室間のばらつきが大きくなることを意味する。最近まで、最先端の技術は公表されていたため、基本的に誰もが同じことをやっていた。(レシピが公開されていたため、新参者やオープンソースのプロジェクトはフロンティアと容易に競合できた)。現在では、主要なアルゴリズムのアイデアはますます専有されつつある。今はフロンティアにいるように見えるラボでも、他のラボがブレークスルーを起こして先を急ぐ間に、データの壁にはまってしまうかもしれない。そして、オープンソースは競争するのがより難しくなるだろう。それは確かに物事を面白くするだろう。(そして、ある研究室がそれを解明すれば、そのブレークスルーはAGIへの鍵となり、超知能への鍵となる。)
続き I.GPT-4からAGIへ:OOMを数える(7) https://anond.hatelabo.jp/20240605210017
ここ1週間Cloudflare Workersを触ってるぞ。
とは言っても無料分でもめちゃ早くて快適だぞ。Cloudflare上の管理画面も軽いし好きになっちゃったぞ。
でも無料分だと1リクエスト10ミリ秒のCPU時間しか使えないのがちょっとね…。
Cron Triggerで定期実行できるのも10ms制限だから悲しい。
まぁDBからデータ取ってくるとかの時間はカウントされないから7ms以下で済んでるけどね。
バッチ処理的なあれが必要になったときはGitHub ActionsでCloudflareのREST API経由でやるのがお金がかからなくて良さそう。
あれってパブリックリポジトリだと無料でなんぼでも使えちゃうんだよね。(もちろんビットコイン掘削とかは駄目だろうけど。)スゴいね。
ChatGPTも無料だし、世の中のどえらいサービスがたくさん無料で良いね。
このまま何もかもが無料になれば良いのに。
・(類似製品の)好きなものの記事に行って嫌いなものの苦言を言う
それが嫌いなら開かず無視したらええねん…ひたすら腐してるのはなんなん…
あなたが望む実現しない要件を何度も挙げて最低条件って言うのは客観的に見て結構恥ずかしくないですか?他のみんなは大多数が興味があって覗いて、少数は内容を批判的に論じるんだけどxlc さんのは内容関係ないよね…?
超バズったからやってきた。とかならわかるんだけど公開ブクマ1桁以内でこういうの言っちゃったりしてるのは当たり屋じゃないっすかね…
なぜコーディングにVSCodeを使うのか。 私がVSCodeを選んだ理由
xlc 2024-03-13
全く心が動かない。私的には80カラム固定のペインが2つ開きっぱなしの状態が維持できて複数のプロジェクトが同時に開けるのが最低条件。
Atom の作者達が作った Rust 製エディタ Zed (OSS) - Qiita
xlc 2024-02-25
VS Codeが嫌すぎてAtomを使い続けているので同じ使い勝手なら移行を考えるかも。私的には80カラム固定のペインが2つ開きっぱなしの状態が維持できて複数のプロジェクトが同時に開けるのが最低条件。
保守・理解しやすいコードを書きたい! 〜VSCode拡張機能で循環的複雑度と戦う〜 - Qiita
xlc 2024-02-23
Atomの開発が終了しVSCodeをインストールした2023年は全くコードを書かない一年となった。それぐらい使いにくい。というか使う気にならんのだがみんなよく使ってるね。今年Atomに戻したらプログラミングを再開できた。
VS Codeの新機能がすごく便利! ツリービューのスティッキースクロール機能をオンにすると格段に使いやすくなります
xlc 2024-02-15
昨年ほとんどプログラムを書かなかったのはVS Codeにさわりたくなかったから。とうとう諦めてAtomに戻してプログラミングの習慣を取り戻しました。後継エディタにもがんばってほしい。
xlc 2023-02-02
私はこれ https://www.amazon.co.jp/dp/4798067881 を書くのにこれ https://kobalab.net/liulian/ を使いました。
VScodeの設定(setting.json)まとめ【2023年1月更新】
xlc 2023-01-02
VScodeがあまりにも使いにくいので未だにAtomを使ってる。
GitHub製コードエディター「Atom」の最終版が公開 ~8年間の開発に終止符/12月15日をもってリポジトリはアーカイブ
xlc 2022-11-22
VS Codeを起動してみたが、そっと閉じ、使えるうちはAtomを使い続けようと決意した。
Sunsetting Atom | The GitHub Blog
xlc 2022-06-09