2022-02-17

大きなデータグラフ作成って、あまりやらないものなの?

Pythonデータ分析は、ここ数年言われているので勉強しているのだけど、

アヤメのような小さいデータ勉強したあと、実際に使うデータ量を想定してグラフを作ると、数十分かかったり、エラーで落ちたりといったことが起こる。

matplotlib、seaborn、plotnineなど試したが時間がかかるのに、細かい表示の調整が必要になり困ってしまっている。

matplotlib、seabornの説明を見ると、高品質グラフが描けると説明されることが多いが、とてもそうは思えない。

GPUの性能が高いのだからGPU使って高速に描画してくれるようなのも良いのがない。


なによりグラフを作った後に、変な所にプロットされたのが、どこのデータだったのかトレースするための機能が弱いと感じている。

(Plotlyあるだろ、って言われるだろうが、こっちはこっちで別の問題がある。)


データが多くなってくると、1つのグラフ判断できず、複数グラフを見比べながら検討すると思うのだが、

1つのグラフで描画していた時と同じ大きさで並べてくれたらいいのに、描画領域を分割されてグラフが小さくなって軸目盛りが読めなくなる、

数字が重なって表示されて読めない、etc

といった、データ分析の本筋とは違う所の労力がかかるのがつらすぎる。

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん