Pythonでデータ分析は、ここ数年言われているので勉強しているのだけど、
アヤメのような小さいデータで勉強したあと、実際に使うデータ量を想定してグラフを作ると、数十分かかったり、エラーで落ちたりといったことが起こる。
matplotlib、seaborn、plotnineなど試したが時間がかかるのに、細かい表示の調整が必要になり困ってしまっている。
matplotlib、seabornの説明を見ると、高品質なグラフが描けると説明されることが多いが、とてもそうは思えない。
GPUの性能が高いのだから、GPU使って高速に描画してくれるようなのも良いのがない。
なによりグラフを作った後に、変な所にプロットされたのが、どこのデータだったのかトレースするための機能が弱いと感じている。
(Plotlyあるだろ、って言われるだろうが、こっちはこっちで別の問題がある。)
データが多くなってくると、1つのグラフで判断できず、複数のグラフを見比べながら検討すると思うのだが、
1つのグラフで描画していた時と同じ大きさで並べてくれたらいいのに、描画領域を分割されてグラフが小さくなって軸目盛りが読めなくなる、