はてなキーワード: ハイブリッドとは
https://www.launchexcel.com/what-jobs-use-excel/
https://www.fdmgroup.com/news-insights/advanced-excel-skills
ジャップランドで起こりがちなことはアメリカでは無いのかAIちゃんに尋ねてみたらこう言ってたよ
ワイ: 質問: 2024年において、アメリカの大企業および中小企業の間で、より一般的なデータ管理の方法はなんですか? 検索して最新のトレンドを教えてください。 - 方法A:内部データベースからCSVファイルとしてデータをダウンロードし、Excelで修正してから、
ETLツール(例:Informatica PowerCenter、Talend Open Studio)、BIツール(例:Tableau Prep、Microsoft Power Query)、
または他のデータベース(例:OracleDB)などの他のシステムにインポートする。 - 方法B:Excelのステップをスキップし、内部データベースを他のシステムに直接接続する。 - 方法C:レガシーシステムや複雑なシステムには方法Aを使用し、その他のシステムには方法Bを使用する。状況やシステム要件に応じて使い分ける。 質問のポイント: - 大企業におけるExcelの使用:大企業はデータクリーニングのためにExcelを使用するのを完全にやめましたか?それとも、古いメインフレームシステム、ERPシステム、または特定の業務プロセスの問題のためにまだ使用されていますか? - 方法A、B、Cのシナリオ:各方法の具体的なシナリオと製品名を教えてください。 - 2024年におけるCSVファイルのダウンロード:2024年現在、ETL/BIツールやクラウドベースのDWHを利用できないどころか、Oracle Gatewayなどの接続手段も利用できないデータベースの使用は完全になくなりましたか?
もしそのようなデータベースが2024年にもまだ存在する場合、直接的なデータ連携が困難なため、CSVファイルでのデータ抽出が唯一の方法となることがあります。
企業は膨大なコストがかかるために移行を延期していますか?それともすでに段階的に対応していますか? - Excelを使い続ける理由: 内部データベースを他のシステムに直接接続した方がシンプルなのに、なぜ一部の企業はデータクリーニングのためにExcelを使い続けているのですか?
↓
2024年には、大企業の間でメソッドB(直接接続)へのシフトが顕著になっています。しかし、特定のシナリオに応じてメソッドC(ハイブリッドアプローチ)も採用されています。中小企業においても、直接接続の利便性と効率性が認識され、その採用が徐々に増加しています。しかし、リソースとコストの制約により、Excelを使用したデータクリーニングやハイブリッドアプローチが依然として一般的です。
使用状況: この方法は、中小企業、レガシーシステム、複雑なデータ構造を含むシナリオで依然として一般的です。Excelはその柔軟性と使いやすさから、データ操作のための多用途ツールとして広く使用されています。
シナリオ:
製品:
具体的なシナリオ:
使用状況: この方法は、大企業や技術に精通した中小企業の間でますます一般的になっています。直接接続を利用することで、データワークフローが効率化され、手動エラーが減少します。
シナリオ:
製品:
具体的なシナリオ:
使用状況: 多くの企業が、レガシーシステムや複雑なシステムにはメソッドAを、その他のシステムにはメソッドBを使用するハイブリッドアプローチを採用しています。この柔軟性により、既存の制約と近代化の努力をバランスさせることができます。
シナリオ:
製品:
具体的なシナリオ:
データ管理ツールの進歩にもかかわらず、Excelは大企業におけるデータクリーニングと操作のために広く使用されています。これは主に以下の理由によります:
ETL/BIツールやクラウドベースのDWHと直接統合できないシステムに対して、データをCSVファイルとしてダウンロードすることは依然として一般的です。企業は高コストと複雑さのために移行を遅らせることが多く、段階的に対処しています。
しかし、直接接続はより効率的で広く採用されており、長期的にはデータ管理におけるExcelへの依存が減少すると予想されます。
クラウドベースのデータ統合ソリューションの台頭により、データ収集、クリーニング、統合がAI/ML技術によって自動化され、手動作業が減少し、データの一貫性と精度が向上しています。AI/MLアルゴリズムは、異常検出、欠損値の補完、パターン認識などのタスクを効率的に処理し、データ品質を向上させます。リアルタイムデータ分析の利点が明らかになるにつれ、直接接続の採用が増加し、より迅速かつ正確なビジネス意思決定が可能になります。
要件満たすため・社内政治的な理由でピンポイントで別のところ使う+併用はあっても、
ゼロトラストセキュリティは、「信頼せず、常に検証する」という原則に基づいています。主な特徴として、常時の認証と承認、最小権限アクセス、アクセスの継続的な監視があります。以下の技術やソリューションを組み合わせることで、包括的なゼロトラストセキュリティモデルを構築できます。
1. Microsoft Entra ID(旧Azure AD):
3. 多要素認証(MFA):
1. 暗号化:
Q.
1つのCPUコアでの逐次処理を高速化することには限界があるため、コア数を増やし並列化させることで性能を向上させる必要がある、という考え方について、市販のサーバコンピュータとスーパーコンピュータで違いはありますか?
A.
この考え方に関して、市販のサーバコンピュータとスーパーコンピュータの間には基本的な違いはありません。両者とも、シングルコアの性能向上に限界がある中で、並列化によって全体的な処理能力を高めるという方向性を共有しています。しかし、その実現方法や規模には大きな違いがあります。 サーバコンピュータとスーパーコンピュータの並列化アプローチの比較 1. 並列化の規模 サーバコンピュータ: 数個から数百個のコアを使用 スーパーコンピュータ: 数万から数百万個のコアを使用 2. 並列化の方法 サーバコンピュータ: 主にSMP(対称型マルチプロセッシング)やNUMA(非一様メモリアクセス)アーキテクチャを採用 比較的少数のプロセッサを密結合 スーパーコンピュータ: 大規模な分散メモリシステムを採用 多数のノードを高速ネットワークで接続 3. 相互接続技術 サーバコンピュータ: 一般的なネットワーク技術(イーサネットなど)を使用 スーパーコンピュータ: 専用の高速相互接続技術(InfiniBand、Tofu Interconnectなど)を使用 4. ソフトウェアとプログラミングモデル サーバコンピュータ: OpenMPやpthreadsなど、比較的シンプルな並列プログラミングモデルを使用 スーパーコンピュータ: MPIなどの複雑な分散メモリプログラミングモデルを使用 ハイブリッド並列化(MPI+OpenMP)などの高度な技術も適用 5. スケーラビリティ サーバコンピュータ: 中規模までの並列化に適しているが、大規模になるとスケーラビリティに課題 スーパーコンピュータ: 極めて大規模な並列化に対応できるよう設計されている 6. 用途 サーバコンピュータ: ウェブサービス、データベース、ビジネスアプリケーションなど、比較的汎用的な用途 スーパーコンピュータ: 気象予報、宇宙物理学シミュレーション、分子動力学計算など、極めて計算負荷の高い科学技術計算
アリス: まあ、日産がBYDのEV解放運動の犠牲者だなんて。でも、解放って何を解放してるのかしら?
チェシャ猫: EVもガソリン車も、結局は動くものさ。動かなければ車じゃない。
マッドハッター: お茶会にEVを招待しよう!電気ポットと相性バッチリだよ!
ハートの女王: BYDが日本で不調だと?オフ・ウィズ・ヒズ・ヘッド!
ヤマネ: zzz... BYD... zzz... 日産... zzz... 眠くなってきたよ...
ドードー: みんなでEV解放運動のレースをしよう!勝者はいないけどね。
マーチヘア: ハイブリッドって、お茶とコーヒーを混ぜたようなものかな?
チェシャ猫: 牙城なんて存在しないさ。あるのは心の壁だけさ。
アリス: でも結局、どの車が一番いいの?
ハートの女王: 私の好きな車が一番よ!それ以外はオフ・ウィズ・ヘッド!
マッドハッター: 車なんてどうでもいい!大事なのはお茶会だよ!
ヤマネ: zzz... 車... zzz... 走る... zzz... 眠い...
アリス: みんなの話を聞いても、結局何がいいのかわからないわ。
チェシャ猫: わからないのがわかったってことさ。それで十分じゃない?
当初はGPUとして開発され、事実上開発の失敗からオマケ程度までスケールダウンされたPS3のSPEは今のNVIDIA製GPUの原始的な形そのものだし、
当時すでにGPUは存在したし、GPUを他の目的に使用する行為(GPGPU)も行われていた。機械学習に使われ始めたのは2010年くらいからだと思うけど。
ちなみに、SPEはGPUをスケールダウンしたものではなく、計算に特化したCPUを複数載せようという設計思想なので、今の膨大なコアで行列演算をぶん回す戦場では勝てない。メニーコアCPUはそれはそれで発展する余地はあったと思うけどね。
「ベクトル型とスカラー型のハイブリッド」とはGPUを複数機搭載したサーバーそのもの。つまりきわめて大ざっぱに言えば基本設計は十年以上先のトレンドを正しく捉えている。が、どちらも実際の開発や予算の都合に失敗しているし、NECのベクトル型スパコンなど需要はゼロだった。
日本がハードウェア部門で存在感を示すには、GPUの開発に研究費をぶっ込む必要があったわけだが、GPUのような不真面目な分野には研究費が出なかっただろうな(偏見)
NVIDIAみたいに売れてれば間違いなく勝てた。売れる物を作らない、作った物を売らないから負けた。当時の日本の常として外部要因や部外者、つまり売上と顧客を効率的に排除したから滅んだ。
当初はGPUとして開発され、事実上開発の失敗からオマケ程度までスケールダウンされたPS3のSPEは今のNVIDIA製GPUの原始的な形そのものだし、「ベクトル型とスカラー型のハイブリッド」とはGPUを複数機搭載したサーバーそのもの。つまりきわめて大ざっぱに言えば基本設計は十年以上先のトレンドを正しく捉えている。が、どちらも実際の開発や予算の都合に失敗しているし、NECのベクトル型スパコンなど需要はゼロだった。
いま「時価総額世界ナンバーワン」を標榜しているNVIDIAのスパコンと、NECが当時作っていたスパコンはまったく同じものなのに、00年代末期の日本が作ればそれは「失敗の象徴」にしかならない。そしてそのことを誰も知らない、理解しない。つまり日本の問題はそこにあって、その差について反省ができていない所にある。
いうても死んだの2015年とかやなかったっけ>ニコニコアダルト データなんぞ残ってるのかなあ。
免許証についてはそれやと思うわ。仮に流失が事実やったら、と言うはなしやけど。
このパターンちゃうかな。外部ネットワークからログインするときはMFA(多要素認証)を通すんだけど、自社内ネットワークからのアクセスだとMFA無しでシングルサインオンで入れちゃうとか、信頼出来るネットワークに指定して以上検知緩くしちゃってるとかそう言うやつでは。だからどっかが破れるとやばいやつ。もちろんidMやらクラウドセキュリティやらからはそう言う設定するのは推奨されてないんやけど。
しらんけど。しらんけど!!!!
何故フルリモートに限定しているのかはよくわからないけれど、地方から大都市圏に勤める人間は、必要に応じて出社するのはあたりまえですね。
いわゆるハイブリッドワークという奴です。そして、これについてはコロナ禍をピークに減少が続いていたが、最近になって下げ止まりし、新しいフェーズに入ったらしい。
2024年6月3日 テレワーク実施率に異変、日本人の働き方は新たな「第3フェーズ」突入へ 日経クロステック https://xtech.nikkei.com/atcl/nxt/column/18/02854/052900001/
2020年春からほぼ半年おきに実施してきた調査の最新結果を見ると、在宅勤務を活用する人の割合が2年ぶりに上昇した。仕事の内容や都合によって働く場所を使い分ける、「ハイブリッドワーク」が広がり始めた実態が浮かび上がった。
前の増田でも書いたけど、「地方には企業が存在しない」と言われる職種ほどリモート勤務出来る可能性は高いと言う補完関係にあるという事がポイントだよ。
「高度なスキルを生かせる職場が地方にはない」→「高度なスキルがある人はリモートで勤務ができる」と言う関係にある。
大半の仕事とか、多くの仕事とか議論しても仕方が無い。都会に出て行かないと仕事が無いと思っている人に対してどうマッチングするかなので。
そして、地方在住で都市部の企業に勤務したいと言うことが目的となるならば、そのためにキャリアを積めばいいってことでもあるんだよ。
例えば、地方企業では、高度なスキルを持った人材が見つからないので、都市部のスキルのある人間に副業で仕事を投げてやってもらうという事も発生している。