はてなキーワード: webとは
書籍だけでwebアプリ作って、GUIツールいじってデスクトップアプリも作れたならスクール行かなくていい。公開してポートフォリオ作れば職歴つけるだけの目的ならいくらでも会社は見つかるはず。情報技術者は余裕があれば就活と並行でいいよ
特に目的もなくプログラミングを始めたが、勉強してるうちに仕事にしたくなった。この体たらくだし、まずは経歴をつけたいので待遇(長時間労働や年収)は厭わないが、出来れば派遣や客先ではなく自社開発が良い。
プロゲートのjava、html、cssを数週繰り返した後に本格的に時間をとって勉強し始め、「スッキリわかる入門」のJavaとSQLをやり、「Spring Framework超入門 ~やさしくわかるWebアプリ開発」を読みながら書籍のアプリを真似、その後Twitterと増田を組み合わせたようなアプリを作ってみた。そのあとwebアプリではなくWindowsアプリを作ってみたくなり、GUIの書籍を買ってswingを学びながら、小説家向けのエディタアプリを作った。作ったアプリを公開したりはしてない。GitHubも登録していない。金はないのでスクールも通っていない。
いやわかる、MS OfficeとかAdobeは業界標準だしファイル互換でインポートとかも楽だ。
ただまぁその万人へ必須か?と言われたら圧倒的にそれが必須じゃない仕事をしている人のほうが多い。
何なら仕事じゃなくて趣味レベルであるならばなおさらMS OfficeとかAdobeとか業界標準ソフトウェアじゃなくても良くなっちゃう。
ということで、ありきたりなシェアウェア代替オープンソースソフトウェアのリストを作ってみた。
ド定番中のド定番、オープンソースのオフィススイートだ。
MS Officeじゃなくて良い人はLibreofficeかGoogleのクラウドのヤツを使ってる。
やはり主に使われるのはワープロソフトのWriterと表計算ソフトのCalcとプレゼンテーションソフトのImpressだが、MS Accessの代替として挙げられるBaseは厳密な意味で代替とはならないためMS Accessの代替を無料でゲットしてやろうと考える人が陥りがちの罠だ。
まぁただデータベースのフロントエンドソフトとしてBaseはそこそこ使えるので、MS Accessの代替として捉えるのではなく別種のデータベースフロントエンドソフトとして割り切れば想定されることの大半ができる。
MS Visioの代替としてDrawも挙げられがちだがMS Accessの場合と同様にDrawもVisioの厳密な代替とはならないので注意が必要だ。
Adobe Illastratorの代替として挙げられがちなオープンソースのベクターグラフィックスソフトウェア。
高機能なのだがIllastratorと比較すると恐ろしいほど使いにくいUIを持っており、折角の高機能へアクセスするにはどうしたら良いのかわからないと挫折する人が多く出る。いやなんでホントこんなUIなんだ。
ただ、諦めずクソUIに付き合っていると不思議なもので人間は慣れてしまい結構自由度高くベクターグラフィックスを生成できるようになる。
Adobe Illastratorには無い長所としてSVG規格へ厳密に従うという方針で開発されているため、Illastratorで生成したSVGをWebでそのまま使うとWebブラウザで謎の描画バグにWeb屋は悩まされるがInkscapeではそれが無い。描画バグが起きるとき製作者が間違った設定を行っているか、Webブラウザ側が使っている設定に未対応な場合がほとんど。
将来的にサポートする気はあるらしいが現状はアニメーションSVGに弱いのも残念でならない。どうしてもアニメーションSVGをやりたいのであればInkscapeで生成された静止画SVGをアニメーションSVG化することを想定しているaniGenというWebベースのエディタがあるので調べてみると良い。
Adobe Photoshopの代替として挙げられがちだが、元来Web用の画像を製作するためのラスターグラフィックスソフトウェアなのでRAW現像や写真を加工するためのソフトじゃないが、本家すらその辺のことを忘れたふりをしている。
画像編集や加工で求められる基本的な機能はほぼ網羅されているが、RAW現像に関しては標準状態のままではできず、最近のAdobeが搭載している人工知能を用いた機能もないのでクラシカルなラスターグラフィックスソフトウェアと表現することもできる。
GIMPとInkscapeが使えると大半の画像製作は何とかなってしまうため一部の情報技術者寄りのギークはPhotoshopやIllastratorは触ったこともなく使えないがGIMPとInkscapeは困らない程度には扱えるというデザイナーがツッコミ入れそうなおかしなスキルセットになっていることがある。
Adobe Lightroomの代替として挙げられがちなオープンソースのRAW現像ソフトウェア。
実はdcrawというRAW現像のためのオープンソースのライブラリのフロントエンドであり、GIMPでRAW現像するために活用されるUFrawも同様にdcrawのフロントエンドであるため中身は同じだったりする。オープンソースのRAW現像ソフトウェアはdcraw使いがち。
オープンソースソフトウェアでRAW現像を賄っている人はGIMPでUFrawを活用してRAW現像するよりもUI的に使いやすいのでRaw TherapeeでRAW現像でTIFFを出力しGIMPで微調整するような使い方をしている人が多い。
オープンソースの2D CADで以前はQcadと呼ばれていた。
一部の読者はJw_cadのJWWファイルを扱うことが可能という特徴を持っているというだけで興味を惹かれてしまうのではないか。
Jw_cadとは違ってWindowsやmacOS、各種Linuxディストリビューションで動くので2D CADデータをネット上の友人知人などとやり取りしたいときに向くんじゃなかろうか?ニコニコ技術部的な遊びとか、最近流行りのルール無用JCJCタイムアタックとかで。
オープンソースの3D CADで、近年は3Dプリンターあたりの需要でよく目にするようになった。
Autodesk AutoCADやFusion 360、Dassault Systèmes SolidWorksよりも草の根では広まっており日本語でのハウツー記事もオープンソースソフトウェアとしては比較的多い印象。
シミュレーション機能はシェアウェアと比較すると弱い傾向があるものの草の根でそこまで必要か?と言われたら悩む。無料でシミュレーションやりたいならOpenFOAMにでも流し込め。
オープンソースのお絵描きに特化したラスターグラフィックスソフトウェア。
歴史的経緯ではLinux界隈でのGUIツールキットの2大巨塔にGTKとQtがあり、GTKはGIMPを作り上げるために生まれたこともありGTK側には高度なラスターグラフィックスソフトウェアが存在していたがQt側には存在していなかった。そこでGIMPの対抗としてQtを用いたKritaの開発が進められたが次第にGIMP的な画像編集ソフトウェアよりもお絵描きに特化していき現在のような性格を帯びるようになった。
SYSTEMAX ペイントツールSAIやセルシス CLIP STUDIO PAINTからの影響が強く現れており、オープンソース界隈のSAIやクリスタなどと呼ばれることがある。クリスタがそうであるようにスマートデバイスへの対応も計られAndorid OS版やChrome OS版が存在する。
ただ日本の需要を敏感に拾えるクリスタなどと比較して漫画作成機能に関してKritaは弱いと言われることがあるものの、GIMPと同様に無料とは思えない機能が充実しているのもまた事実である。
オープンソースの3DCGアニメーションソフトウェアで、非常に多機能のため何故かAdobe After Effectsの代替として挙げられることもある。
YoutubeがBlenderのYoutubeチャンネルへ広告を載せろと迫ってBlender公式がそれを拒否してYoutubeから撤退したり、庵野秀明が率いる株式会社カラーが出資したことなどオープンソース界隈でも異彩な存在感を放っており日本国内でも非常に注目されているプロジェクトだ。
ただ、初期状態では独特なUIによる使い勝手が非常に悪くユーザーが自分で使いやすい配置を模索する必要があったりタイムラインが使いにくかったりと何故オープンソースソフトウェアはUIがクソになりがちなのか?という問題にぶち当たる。
オープンソースの2DG/3DCG兼用プログラミングIDE。つまりはUnityとかみたいなやつ。
MIT Licenseでロイヤリティーフリー、開発言語はC#もしくはC++、そしてPythonライクなGDScriptで、Unityみたいにマウスでポチポチしてオブジェクトへ色んな設定を決められるので「Unityみたいのでゲーム作りたいけど運良くヒットしたときにライセンス料がなぁ」と懸念している人に役立つ。
ちなみにWiiとニンテンドーDS用向けにリリースされたSEGAゲームタイトルのソニックカラーズのSwitchやPS4などのマルチプラットフォーム移植版ソニックカラーズ アルティメットはGodotを用いて移植されているので商用でも耐えうることはSEGAが証明している。あのSEGAがソニックでだ。
オープンソースな動画編集ソフトウェア。
様々な部分で動画ライブラリのFFmpegへ依存しているためFFmepgのフロントエンドソフトとしての性格も持つ。
この手の無料の動画編集ソフトは国内だとAviUtlや近年ではBlackmagic Design DaVinci Resolveが人気だけれど、海外のオープンソース界隈ではShotcutは比較的知名度が高い。
カラーグレーディングに関して不足のない機能を有しているので高度なトランジションを用いるというよりも色を追い込むような使い方が合っているだろう。
ていうかFFmpegのフロントエンドなのでFFmpegができることは理論上なんでもできる(理論上なので追加でコマンドを叩く必要があったりするけどね)。
オープンソースのレコーディングソフトウェア。旧名称はAudacityと言われるとご存じの方も多いハズ。プライバシー問題でAudacityからプロジェクトが分岐されTenacityとして再出発することとなった。
旧Audacityは開発の主な拠点がロシアを中心に行われていたという経緯があり、現在のウクライナ-ロシア戦争へ至る前の影響からか個人情報の収集をロシア企業が行うと発表され、それに反発したユーザーらによってプロジェクトが分岐しTenacityプロジェクトが立ち上がった。
Audacity自体はVSTプラグインが動作するなど非常に高機能なレコーディングソフトウェアであったがウクライナ-ロシアの騒動に巻き込まれたと言った感じだ。
Audacityから分岐したTenacityもそのまま高機能なレコーディングソフトウェアなのでこれからはTenacityを使ったほうが色々面倒が少ないだろう。
ProToolsの代替として挙げられがちなオープンソースのDAW。非常に高機能でDAWとして求められることの大半ができるものの、これもまた通例通り最近流行りの人工知能を用いた云々かんぬんは標準状態だとできない。
Ardourプロジェクトの立ち上げをし主要開発者であるポール・デービス氏はJACK Audio Connection Kitのプロジェクトの立ち上げをし主要開発者であるという事実を伝えると驚く人がいるかも知れない。LinuxとGitのリーナス・トーバルズ的な文脈だ。
オープンソース界のFL Studioと呼ばれることもあるDAW。ステップシーケンサーを中心に作曲するタイプのDAWで電子音楽が得意。LMMSという名称はLinux Multi Media Studioの略でLinuxに端を発してマルチプラットフォーム展開をしたDAW。
オープンソースのDAWにしては珍しく初期状態から多数のソフトウェアシンセサイザープラグインが用意されておりインストールした時点で遊び始めることができるものの、オープンソースの例に漏れずクソUIを持っており使いにくい。GIMPやBlenderもそうだが1990年代後半〜2000年代前半あたりに流行したMDI(Multiple Document Interface)を未だに引きずっているためクソUIになりがちなのだ。
ググると日本国内にも意外とユーザーは居て、DTMやりたいけど初期投資は低く抑えたいみたいなユーザーが選んでいる模様。そういう需要ならLMMSの他に基本無料で全機能が使えて一部のプリセットが有料のVitalっていうソフトウェアシンセサイザーも導入しておくと延々遊べるよ。
オープンソースなWebブラウザとして非常に有名な存在。
Google率いるChromium系Webブラウザに近年物凄く押されているものの独禁法を回避するためGoogleはMozillaへ出資しているという歪な構造を持つ。
Mozillaの運営が下手すぎて資金をドブに捨てることを繰り返しているためGekkoレンダリングエンジンに未来があるのかと一部の識者から不安がられている。
Firefoxは使いやすいのか?と言われたら、それはもう好みの問題としか返せないのだがカスタマイズ性は非常に高い。
某記事(https://anond.hatelabo.jp/20200530164357年収1000万のリアルを教えよう)に触発されたので書いてみます。
31歳 独身 都内23区在住 年収1000万円+副業400万円
可処分所得でいうと、本業のみの年収1,500万円と同程度かちょっと多いくらいなので
■家賃
数年前に1LDKのマンションを購入して(4,500万)
月々の支払いが、ローン支払い12万程度+管理費共益費25,000円=145,000円が毎月の支払い
夜景は見えない。
元々やや自炊するほうかつ年々太ってきているので健康的な食材に投資している。
基本もろもろは近所の中型スーパーで購入する。
ランチ含め食費は月々6,7万円くらい。
■外食
週1くらいで外でお酒を飲む。
お酒を飲むときは一人5,000円~10,000円前後のお店を2、3件回るくらい。
平均して月3万~4万くらい。
数年彼女がいない。
合コンは何度かやっているが年収匂わせみたいなのはやってないので年収効果は不明。
遊んでくれる頻度が少なくなってかつ生き遅れた感があるため、ようやく婚活するかと重い腰をあげているところ。
■車
あと、マンションの駐車場に空きがないので、近くの月極駐車場を借りる必要があり、ちょっと遠くてダルそう。
改めて調べたら月極駐車場が月3~4万円するのでまあまあな出費。
本業月70万円(手取り50万ちょい) + 副業20~30万円(手取り18万くらい)+ボーナス(1-2か月分・年2回) が入ってくる。
このうち
あとは貯金している。
副業はまるまる貯金していて、本業の口座から積み立て投資しているので
毎月30万円(投資10万+貯蓄20万)資産が積みあがっているイメージ。
資産は
貯金700万+インデックス700万+個別株(趣味)100万くらい。
新卒3年目くらいまで、中小企業にいて給与が安かったのでほぼ貯蓄できなかった。
積み立てNISAの限度額が上がるのでいくらまで投資しようか考え中。
■仕事
コロナ禍もあり近年WEB広告の比重も増してきているので市場が大きくなっている感がある。
■副業
集客したいクライアントからお金を預かってWEB集客のプランニングや遂行を行い、その一部(だいたい広告費の10%~20%をFeeとして頂いている)を貰っている。
クライアントは昔の仕事の知り合いから何社か紹介してもらった中小企業。
■今後の夢
あまりない。
買いたいものはだいたい買って、昔に比べたら満ち足りた生活をしているので、欲望が減退している。
強いて言えば立地のよい&景色のよいマンションに住みたい。
千代田区のワテラスタワーなど(ただ坪単価800~900万、20坪で2億近くするのでかなり壮大な夢)
プリザンターは、無料で使えるOSSのノーコード・ローコード開発ツールです。 パッケージソフトには真似できないほど業務にフィットしたWebアプリ
マジレスされてチビッた.こりゃGoogleさんもビビるわけだ.
ぼく:
How were you implemented? Is it deep learning-based?
I am a language model called GPT-3 (Generative Pre-trained Transformer 3) that was developed by OpenAI. It is a deep learning-based model that uses a type of neural network called a transformer, which was trained on a large dataset of text to learn patterns of language.
GPT-3 is trained using a technique called unsupervised learning, where the model is given a massive amount of text data and uses this data to learn patterns and relationships in the language. This allows GPT-3 to generate human-like text when given a prompt, and to understand and respond to natural language input.
The training process of GPT-3 involves a technique called pre-training, which means that the model is trained on a massive dataset before being fine-tuned on a smaller task-specific dataset. This pre-training allows GPT-3 to have a good general understanding of the language and to be able to adapt to specific tasks more easily.
The GPT-3 model has 175 billion parameters, which is one of the largest language models to date, making it able to generate very human-like text and to understand context in a very natural way.
ぼく:
How does GPT-3 have a knowledgebase like an ontology? As it is deep learning-based, the knowledgebase like an ontology would not be implemented explicitly, but the structure should be designed with an expectation of having such a knowledge about hierarchy of concepts.
GPT-3, like other deep learning models, does not have an explicit knowledgebase or ontology built into its structure. Instead, it has been trained on a large dataset of text, which allows it to learn patterns and relationships between concepts.
However, the training data that GPT-3 was exposed to, likely contains a wide range of concepts and hierarchical structures. As GPT-3 learns patterns in the data, it can begin to understand the relationships between different concepts and ideas, and how they are related to each other. This allows the model to generate text that is more coherent and semantically meaningful, making it possible to understand the context and hierarchy of concepts, but it does not have an explicit ontology like a knowledge graph.
It can be said that GPT-3 has a certain level of "implicit ontology", in the sense that it has learned the relationships between concepts in a way that is similar to how a knowledge graph or ontology organizes information. However, it's important to note that GPT-3's understanding of concepts and relationships is based on the patterns it has learned from the training data, which is not a structured and explicit knowledgebase like an ontology.
ぼく:
Then how does GPT-3 handle the long-term or short term memories? Can it remember information about the on-going chatting? My name is Masuda, can GPT-3 keep it in the memory? Furthermore, can it learn and understand the new information from the Q-A queries, and use it in the future queries?
GPT-3 handles long-term and short-term memories differently. When it generates text, it uses a technique called attention mechanism which allows the model to focus on certain parts of the input while generating the output. This allows GPT-3 to keep track of previous information and context when generating text, which can be thought of as a form of short-term memory.
Regarding the on-going chatting, GPT-3 can keep track of certain information, like the name you've provided, Masuda, during the conversation and use it in future responses. However, it's important to note that GPT-3 is a stateless model, which means that it doesn't have a permanent memory that it can refer to after a conversation ends.
Regarding learning from Q-A, GPT-3 is trained on a massive dataset of text, and it learns patterns and relationships between concepts from this data. It can generate text that is semantically meaningful and coherent, but it does not have the capability to learn new information from Q-A sessions and use it in future queries. However, OpenAI has developed another model called DALL-E, which uses GPT-3 and it is capable of learning from Q-A sessions and use it in future queries.
ぼく:
Is ChatGPT superior to the Google search? Previously people used Google to search for their questions. Now a days, ChatGPT can answer to those questions. What are pros and cons of ChatGPT over the Google search?
ChatGPT and Google search are different technologies with different capabilities and strengths.
Google search is a powerful web search engine that can quickly find relevant information from a vast amount of web pages and documents. It uses complex algorithms to rank and sort search results based on relevance, popularity, and other factors. Google search is very good at providing factual information and is an excellent tool for researching a wide range of topics.
ChatGPT, on the other hand, is a natural language processing model that can generate human-like text. It is trained on a large dataset of text and uses this knowledge to understand and respond to natural language input. ChatGPT can generate text that is more coherent and semantically meaningful than a simple information retrieval engine like Google search. ChatGPT can also be used to generate text that is more engaging and human-like, such as in chatbots and virtual assistants.
One of the main advantages of ChatGPT over Google search is its ability to understand and respond to natural language input in a more human-like way. ChatGPT can also generate text that is more coherent and semantically meaningful, which can be useful in many applications. However, Google search is better at providing factual information and searching for specific pieces of information.
Another disadvantage of ChatGPT is that it doesn't have the ability to retrieve information from the web, it can only generate text based on the patterns it has learned from the training data. That's why it's not a replacement for a web search engine like Google but it can be used as an additional tool to help people to find the information they are looking for.
In summary, ChatGPT and Google search have different strengths and capabilities. While Google search is better at providing factual information, ChatGPT is better at understanding and responding to natural language input in a more human-like way.
ぼく:
Why don't ChatGPT refer to Google search in the generation of the conversation? Google Assistant has such a function. Is the reason due to the fact that OpenAI is funded by Google?
ChatGPT is a language model that generates text based on the patterns it has learned from the training data. While it can understand and respond to natural language input in a human-like way, it does not have the capability to access external sources of information like Google search.
Google Assistant, on the other hand, is a virtual assistant that can access a wide range of information and services through the internet, including Google search. Google Assistant can use this information to provide more accurate and relevant responses to user queries.
The reason ChatGPT does not refer to Google search during the generation of the conversation is likely because it was not designed or trained to do so. Instead, it was designed to generate text based on the patterns it has learned from the training data, and it does not have the capability to access external sources of information.
It's worth noting that OpenAI and Google are separate organizations, even though Google is an investor in OpenAI, this doesn't necessarily mean that the two companies work together on their products and services. OpenAI has its own development team, goals and roadmap and they are independent from Google.
ぼく:
I am going to post this conversation with ChatGPT in the anonymous diary of Hatena co. What should I do for attracting people to get many bookmarks?
There are several things you can do to attract people and increase the chances of your conversation with ChatGPT getting many bookmarks on Hatena diary. Some suggestions include:
1. Make sure your conversation is well-written and easy to understand. Use clear and concise language, and consider formatting your text in a way that makes it easy to read.
2. Use relevant keywords and hashtags in your diary entry. This can help make your conversation more discoverable to people searching for related topics on Hatena diary.
3. Include images or videos in your diary entry. This can make your conversation more visually appealing and can help attract more readers.
4. Share your diary entry on social media or other platforms. This can help increase the visibility of your conversation and attract more readers.
5. Encourage readers to share their thoughts and opinions on your conversation by including a call to action or a question at the end of your diary entry.
6. Finally, you can also try to participate in the conversation on Hatena diary, by answering the questions, responding to the comments, and engaging with your readers.
It's important to remember that getting many bookmarks on a diary is not easy and it can take time and effort to build an audience. But by following these tips and being consistent with your diary entry, you will increase the chances of attracting more readers and getting more bookmarks.
ぼく:
マガポケの新人読み切りも、けっこう粒ぞろいだったりするのにぜんぜん話題にならなくて悲しい。
あたり。
というか、目立ってないのはWebマガポケのトップページから、この読み切り特集が探せないのが原因な気がしてきた。
400ブクマ近くいくとは思わなかった。
ブコメでも言われてるけど、Webからは新人賞読み切りへの動線がない(ものすごく見つけづらい)のよね。
https://pocket.shonenmagazine.com/article/entry/wm_20221207 の結果発表ページにあるのは全部載るはずなので、個別にタイトル検索するしかないっぽい。
アプリだと「第109回新人漫画賞」タグで一覧表示できるんだけど。このタグ検索がWebで使えるだけでも楽になりそう。
ついでに、もういくつかおもしろかったのを。
しかし本当か?
古賀 正義(中央大学文学部教授)さんは、学校の子どもの居場所を作れと提案
『「若者/支援」を読み解くブックガイド』(かもがわ出版)をご恵送いただきました。弊社の刊行書からは、『ストリートの歌』(鈴木裕之)と『ひきこもりと家族の社会学』(古賀正義・石川良子編)が紹介されています。この二冊からだけでも、幅広く選書されていることがわかります。
@Chuo_PR
@yasuhikomurakam
困難校の生活指導の先生のエスノグラフィーって面白そうだけどあるのだろうか。清濁併せ呑む日本独特の文化だったと思うので面白いのではないだろうか。
子どもたちの側のは『ハマータウンの野郎ども』や『〈ヤンチャな子ら〉のエスノグラフィー』があるが。
と書いて「夜回り先生か…」と思い至る
𓅢ザイタクチュウデス()
@18991129
返信先: @yasuhikomurakamさん
教育社会学だと古賀正義編の以下の本が挙げられるかと思います。
https://amazon.co.jp/dp/4760892621/ref=cm_sw_r_cp_awdb_c_NR-MDb6HH72JJ
@gomaf502
「『家庭』入れる入れない、もし選べたら?」
@UN_Press
【教育実践を本格的に調査・分析】広田照幸・古賀正義・伊藤茂樹編『現代日本の少年院教育――質的調査を通して』
少年院ではどのような教育が行われているのか? 本格的なフィールド調査を通して、教育学の視点から多面的に分析、イメージを一新する研究。
@mirai_teiban
1990年代後半から2010年の間に生まれた世代のこと。生まれた時にはデジタルツールが当たり前に普及していたことから、「デジタル・ネイティブ世代」とも呼ばれます。そんな世代の人々の価値観とは?
これをネットストーカーと呼ぶかは立場によるところだろうけど、Webスクレイピングツール自体を悪だって言い始めるとGoogleとかYahooは成立しなくなるので注意が必要だ
まぁ個人的にはWebスクレイピングツールのずる賢い悪用の一種だとは思うけど辞めろって言っても暇空茜応援団は辞めないだろうしね
Webスクレイピングツールは一般であまり認知されていないが、Webを中心としたIT界隈では常識的なツールであり、端的に言えば登録したWebページを巡回し更新を監視するツールである。
似たようなものにRSSやAtomフィードリーダーなどが存在するものの、Webスクレイピングツールの業界共通認識としては、監視するWebページにRSSやAtomフィードが無くともWebページ情報の差異を過去と現在で計算し、変更の閾値を超えたWebページの更新を通知し、そして保存できるというものである。
変更の閾値という処理が挟まれる理由として、広告などを代表例にWebページ閲覧時の更新の度に変化する可能性があるため1%でも更新が通知されると更新の通知が膨大となるため些細な変更を無視するためだ。
もしWebスクレイピングツールで更新されているページにPDFやJPEGなどのバイナリファイルが存在したとしても、PDFやJPEGなどのバイナリファイルが存在したとき多くの場合Diffと呼ばれる差分検出ツールを用いてバイナリファイル単位で変更があったかどうかを監視している。
Colaboなど現代の多くの団体はWebを活用して運営されているため情報をWebを介して告知するので、暇空茜応援団はそれを逆手に取り情報更新を監視している。
暇空茜応援団が即座にWeb情報の更新へ反応するのはこういった背景があるのだ。
逆に言えばWebページの更新を秒間で行うなど更新通知を飽和させるカウンターなどを想定できるが、閾値を変えればその様なカウンター手法を無視できるため意味がないし、特定のキーワードだけ抽出することも可能なので無駄なリソースとなるため無駄であると忠告しておきたい。
第一子出産から3ヶ月、想像していた子育てと違い、毎日暇で暇で仕方なく、一日中ゲーム実況動画を見て過ごしている。
色々なあやし方を試行錯誤した結果、今のところうちの子は抱っこしてロッキンチェアでゆらゆらし続ければ気持ちよさそうに眠ってくれる。
我が家は部屋数の少ないマンションに住んでいるもののフルリモートの夫はほとんどの時間WEBミーティングをしているため、子を泣かせていられない。
なので夫の仕事中、私は抱っこゆらゆらマシーンと化してしまう。
ゆらゆらを止めたり、姿勢を変えるだけですぐに起きて泣き出してしまうのでその場から動けず、両手もほとんど使えない。大変ではないが、暇である。できることといえば、昼寝か動画を見ることくらい。(鍛錬したので寝ながらロッキンチェアを揺らし続けることができるようになった)
その時間にシリーズもののドラマでも一気見することも考えたが、途中でウトウトしてしまうことも多いので今はゲーム実況などの動画をダラダラと見続けている。
「育児は大変」とずっと聞いていたのでめちゃくちゃ身構えていたものの、平日の家事を全放棄して抱っこゆらゆらマシーンに専念すれば、こんな暇な場合もあるんだね。
もちろん、抱っこゆらゆらマシーンになるのを「暇」と表現することが間違えているのかもしれないけれど。。
しかし、稀に夫が出社している日に家事と育児を並行しようと試みても全くうまくいかないので、子が小さいうちは、今のように家事を全放棄するのが正解なのかなと思っている。昔なら、同居の祖母がやってくれていたのかな。
育休がイージーというわけではないが、ほぼ自炊をしていないのでエンゲル係数がヤバいことと、土日の家事が大変なことを除けば、うまくやれているように思う。
無為に動画を見続ける以外のもう少し有意義なこともやるべきなのかもしれないけど、椅子に座ったまま手を動かさずにできることがこの世になさすぎる。
https://twitter.com/ishtarist/status/1613432976448303105
馬の眼🐴
@ishtarist
7時間
調べたらわかりますが、Colaboは日本の権力中枢側ですよ。
安倍のあんな態度、トランプとプーチン相手にしか見たことないですよ。
あれを「誰」に謝ったのかわからないのは、政治音痴だからですね。
菱山南帆子
@nahokohishiyama
Colaboへの攻撃を見ているとこれは「新しい弾圧」の形なのだと思う。
昔は密告とか不当逮捕だったが、今は匿名を利用した権力側からネット上にて社会的弾圧を受ける。
かつて女性活動家たちは戦争が近づくにつれ弾圧された挙句に戦争が始まった。
Colabo弾圧を許してはならない。
新しいツイートを表示
会話
馬の眼🐴
@ishtarist
7時間
調べたらわかりますが、Colaboは日本の権力中枢側ですよ。
安倍のあんな態度、トランプとプーチン相手にしか見たことないですよ。
あれを「誰」に謝ったのかわからないのは、政治音痴だからですね。
このアカウントの所有者はツイートを表示できるアカウントを制限しているため、このツイートを表示できません。詳細はこちら
@yuten_y
7時間
返信先: @ishtaristさん
このことですか?
馳氏セクハラ 団体側「直接謝罪なく不誠実」 首相、国会で陳謝:東京新聞 TOKYO Web
馬の眼🐴
@ishtarist
6時間
返信先:
@yuten_yさん
です。
@yuten_y
6時間
返信先:
@ishtarist
さん
馬の眼🐴
@ishtarist
返信先:
@yuten_y
さん
あ、ほんとだ笑
この動画見てください。安倍がこんなふうに野党相手に謝罪してるの見たことありますか?
蓮舫 国会で colaboを全力援護、安倍総理に謝罪させ政府へ支援要請
@kyoen
6時間
返信先:
@ishtaristさん, @yuten_yさん
これこれ
その他の返信
@yuten_y
6時間
返信先: @ishtaristさん
動画作成主はColaboと野党をdisる意図で作成したのでしょうが、結果的に「Colaboは、あの安倍晋三を卑屈な謝罪に追い込むレベルの、自公政権にとってすらアンタッチャブルな団体である」ということを証明してしまっていますね。これ、動画作成主は、Colaboの"奥の院"から睨まれるんじゃないですかね😇
なぜ資格がなくて言いわけ?
--
漠然としてるなあ
バックエンド、フロントエンド、インフラ、ネットワーク、テスト、PM経験したいってこと?
--
→説明があれですまん。バックエンドで色んな現場行きたいなぐらいだったわ。SIよりがいい。
--
--
→地域もネックか。。。
--
もうちょい詳しく書こうや
--
主にやってたのが求人システムの保守・改修案件だったわ。 規模は小さい。1人か2人。他の案件でも多く5人。コード管理はsvnメインだったな。
ドキュメントがないレガシーな他社システムをリバースしての改修が殆ど。PHPは生のものをずっと触ってた。フレームワークは使ってない。JavaScriptはちょこちょこした修正くらいでしか触ってないな。
データベースはSQLが書けます読めます、データの設計ができます程度。
(うわー技術力が低くて書くのが恥ずかしい)