はてなキーワード: gpuとは
私は以前、AGIへの短期的なタイムラインには懐疑的だった。その理由のひとつは、この10年を優遇し、AGI確率の質量を集中させるのは不合理に思えたからである(「我々は特別だ」と考えるのは古典的な誤謬のように思えた)。私は、AGIを手に入れるために何が必要なのかについて不確実であるべきであり、その結果、AGIを手に入れる可能性のある時期について、もっと「しみじみとした」確率分布になるはずだと考えた。
しかし、私は考えを変えました。決定的に重要なのは、AGIを得るために何が必要かという不確実性は、年単位ではなく、OOM(有効計算量)単位であるべきだということです。
私たちはこの10年でOOMsを駆け抜けようとしている。かつての全盛期でさえ、ムーアの法則は1~1.5OOM/10年に過ぎなかった。私の予想では、4年で~5OOM、10年で~10OOMを超えるだろう。
https://situational-awareness.ai/wp-content/uploads/2024/06/this_decade_or_bust-1200x925.png
要するに、私たちはこの10年で1回限りの利益を得るための大規模なスケールアップの真っ只中にいるのであり、OOMsを通過する進歩はその後何倍も遅くなるだろう。もしこのスケールアップが今後5~10年でAGIに到達できなければ、AGIはまだまだ先の話になるかもしれない。
つまり、今後10年間で、その後数十年間よりも多くのOOMを経験することになる。それで十分かもしれないし、すぐにAGIが実現するかもしれない。AGIを達成するのがどれほど難しいかによって、AGI達成までの時間の中央値について、あなたと私の意見が食い違うのは当然です。しかし、私たちが今どのようにOOMを駆け抜けているかを考えると、あなたのAGI達成のモーダル・イヤーは、この10年かそこらの後半になるはずです。
マシュー・バーネット(Matthew Barnett)氏は、計算機と生物学的境界だけを考慮した、これに関連する素晴らしい視覚化を行っている。
X (twitter) で SITUATIONAL AWARENESS: The Decade Ahead https://situational-awareness.ai/ というのが回ってきて非常に示唆に富むものだったので、DeepL (無料版 API経由) で訳してみた。
この1年で、街の話題は100億ドルのコンピュート・クラスターから1000億ドルのクラスター、そして1兆ドルのクラスターへと移り変わってきた。半年ごとに、役員室の計画にまたゼロが追加される。その裏では、残りの10年間に利用可能なすべての電力契約と、調達可能なすべての電圧変圧器を確保しようとする熾烈な争いが繰り広げられている。アメリカの大企業は、アメリカの産業力を結集させるために、何兆ドルもの資金を注ぎ込む準備を整えている。ペンシルベニア州のシェールフィールドからネバダ州の太陽光発電所まで、何億ものGPUが稼働する。
AGI競争が始まったのだ。私たちは思考し、推論できるマシンを作りつつある。2025年から26年にかけて、これらのマシンは多くの大学卒業生を凌駕するだろう。10年後までには、これらのマシンは私やあなたよりも賢くなり、本当の意味での超知性を手に入れるだろう。その過程で、この半世紀には見られなかったような国家安全保障の力が解き放たれ、やがて「プロジェクト」が始動する。運が良ければ、中国共産党との全面的な競争になり、運が悪ければ全面戦争になる。
今、誰もがAIについて話しているが、何が自分たちを襲おうとしているのか、かすかな光明を感じている人はほとんどいない。Nvidiaのアナリストは、まだ2024年がピークに近いと考えている。主流派の評論家たちは、「次の言葉を予測するだけだ」という故意の盲目に陥っている。彼らが見ているのは誇大広告といつも通りのビジネスだけで、せいぜいインターネット規模の新たな技術革新が起こるのを楽しむ程度なのだ。
やがて世界は目を覚ますだろう。しかし、今現在、状況認識を持っているのはおそらく数百人で、そのほとんどはサンフランシスコとAI研究所にいる。運命の不思議な力によって、私はその中に身を置くことになった。数年前、このような人々はクレイジーだと揶揄されたが、彼らはトレンドラインを信頼し、過去数年間のAIの進歩を正しく予測することができた。この人たちが今後数年についても正しいかどうかはまだわからない。しかし、彼らは非常に賢い人々であり、私がこれまでに会った中で最も賢い人々である。おそらく、彼らは歴史の中で奇妙な脚注となるか、あるいはシラードやオッペンハイマー、テラーのように歴史に名を残すだろう。もし彼らが未来を正しく見ているとしたら、私たちはとんでもないことになる。
各エッセイはそれぞれ独立したものですが、シリーズ全体として読むことを強くお勧めします。全エッセイのPDF版はこちら。
2027年までにAGIが実現する可能性は極めて高い。GPT-2からGPT-4までの4年間で、私たちは~未就学児から~賢い高校生までの能力を手に入れた。計算能力(~0.5桁またはOOMs/年)、アルゴリズム効率(~0.5OOMs/年)、および「趣味のない」向上(チャットボットからエージェントへ)のトレンドラインをトレースすると、2027年までに再び未就学児から高校生サイズの質的なジャンプが起こると予想される。
AIの進歩は人間レベルでは止まらない。何億ものAGIがAI研究を自動化し、10年に及ぶアルゴリズムの進歩(5以上のOOM)を1年以下に圧縮することができる。私たちは、人間レベルから超人的なAIシステムへと急速に進化することになる。超知能の威力と危険性は劇的なものとなるだろう。
驚異的な技術資本の加速が始まっている。AIの収益が急増するにつれ、10年末までに何兆ドルもの資金がGPU、データセンター、電力の増強に投入されるだろう。米国の電力生産を数十%増加させるなど、産業界の動員は激しくなるだろう。
米国の主要なAI研究所は、セキュリティを後回しに扱っている。現在、彼らは基本的にAGIの重要な機密を銀の皿に載せて中国共産党に渡している。AGIの秘密とウェイトを国家機関の脅威から守るには膨大な努力が必要であり、我々はその軌道に乗っていない。
我々よりもはるかに賢いAIシステムを確実に制御することは、未解決の技術的問題である。解決可能な問題ではあるが、急速な知能の爆発が起きれば、物事は簡単にレールから外れてしまう。これを管理することは非常に緊張を強いられるだろう。
スーパーインテリジェンスは、経済的にも軍事的にも決定的な優位性をもたらすだろう。中国はまだゲームから抜け出してはいない。AGIをめぐる競争では、自由世界の存亡がかかっている。我々は権威主義的な大国に対する優位性を維持できるのか?そして、その過程で自滅を避けることができるのだろうか?
AGIへの競争が激化するにつれ、国家安全保障が関与してくる。アメリカ政府は眠りから覚め、27~28年までに何らかの形で政府によるAGIプロジェクトが立ち上がるだろう。どんな新興企業も超知能を扱うことはできない。SCIFのどこかで、終盤戦が始まるだろう。
もし我々が正しかったら?
――――――――
私はかつてOpenAIで働いていたが、これはすべて一般に公開されている情報、私自身のアイデア、一般的な現場知識、あるいはSFゴシップに基づいている。
Collin Burns、Avital Balwit、Carl Shulman、Jan Leike、Ilya Sutskever、Holden Karnofsky、Sholto Douglas、James Bradbury、Dwarkesh Patel、その他多くの方々の有益な議論に感謝する。初期の草稿にフィードバックをくれた多くの友人に感謝する。グラフィックを手伝ってくれたジョー・ローナン、出版を手伝ってくれたニック・ウィテカーに感謝する。
続き I.GPT-4からAGIへ:OOMを数える(1) https://anond.hatelabo.jp/20240605203849
どうしてこうなった?ディープラーニングの魔法は、それがただ機能するということであり、あらゆる場面で否定的な意見にもかかわらず、その傾向線は驚くほど一貫している。
https://situational-awareness.ai/wp-content/uploads/2024/06/sora_scaling-1024x383.png
効果的な計算のOOMが増えるごとに、モデルは予測通り、確実に良くなっていく。OOMを数えることができれば、能力の向上を(大まかに、定性的に)推定することができる。そうやって、先見の明のある数人がGPT-4の到来を予見したのだ。
GPT-2からGPT-4までの4年間の進歩を、スケールアップの3つのカテゴリーに分解することができる:
1. コンピュート:計算:これらのモデルを訓練するために、より大きなコンピューターを使うようになった。
2.アルゴリズムの効率化:アルゴリズムの進歩には継続的な傾向がある。これらの多くは「コンピュート・マルチプライヤ」として機能し、有効なコンピュート量の増加という統一された尺度に乗せることができます。
3.「趣味のない」利益:デフォルトでは、モデルは多くの素晴らしい生の能力を学習しますが、あらゆる種類の間抜けな方法で足かせとなり、実用的な価値が制限されます。人間のフィードバックからの強化学習(RLHF)、思考の連鎖(CoT)、ツール、足場などの単純なアルゴリズムの改善により、潜在的な能力を大きく引き出すことができる。
これらの軸に沿って、改善の「OOMを数える」ことができる。つまり、有効計算量の単位でそれぞれのスケールアップをトレースするのだ。3倍は0.5OOM、10倍は1OOM、30倍は1.5OOM、100倍は2OOMといった具合だ。2023年から2027年まで、GPT-4の上に何を期待すべきかを見ることもできる。
ひとつひとつ見ていくが、OOMの数を急速に増やしていることは明らかだ。データの壁には逆風が吹いている可能性があり、それについては後述するが、全体的には、2027年までにGPT-4の上に、GPT-2からGPT-4規模のジャンプがもう1回起こると予想される。
まず、最近の進歩の原動力として最もよく議論されている、モデルへの(大量の)コンピュート投入について説明します。
多くの人は、これは単にムーアの法則によるものだと考えている。しかし、ムーアの法則が全盛期を迎えていた昔でさえ、その進歩は比較的緩やかなものでした。しかし、ムーアの法則が全盛期だった昔でさえ、10年で1~1.5OOMと、比較的ゆっくりとしたスピードだった。(かつては1つのモデルに100万ドルを費やすことさえ、誰も考えもしないことだった。)
モデル | 推定コンピュート | 成長率 |
---|---|---|
GPT-2 (2019) | ~4e21 FLOP | |
GPT-3 (2020) | ~3e23 FLOP + | ~2 OOMs |
GPT-4 (2023) | 8e24~4e25 FLOP + | ~1.5~2 OOMs |
エポックAI(AIトレンドの優れた分析で広く尊敬されている情報源)の公開推定値を使用して、2019年から2023年までのコンピュートスケールアップを追跡することができます。GPT-2からGPT-3へのスケールアップは迅速で、小規模な実験から大規模な言語モデルを訓練するためにデータセンター全体を使用するまでにスケールアップし、コンピュートのオーバーハングが大きくなりました。GPT-3からGPT-4へのスケールアップでは、次のモデルのためにまったく新しい(はるかに大きな)クラスタを構築しなければならないという、最新の体制に移行しました。それでも劇的な成長は続いています。エポックAIの試算によると、GPT-4のトレーニングでは、GPT-2の3,000倍から10,000倍の計算量を使用しています。
大雑把に言えば、これは長期的なトレンドの継続に過ぎない。過去10年半の間、主に投資(およびGPUやTPUの形でAIワークロードに特化したチップ)の幅広いスケールアップのため、フロンティアAIシステムに使用されるトレーニング計算量は、およそ〜0.5OOM/年で成長してきた。
https://situational-awareness.ai/wp-content/uploads/2024/06/compute_long_run_trend-1024x968.png
GPT-2からGPT-3への1年間のスケールアップは異例のオーバーハングであったが、長期的なトレンドが続くことは間違いない。SF-rumor-millは、巨額のGPU受注の劇的な話で一杯だ。その投資は並大抵のものではないが、動き始めている。
この分析によれば、2027年末までにさらに2OOMsのコンピュート(数十億ドル規模のクラスター)が実現する可能性は非常に高いと思われる。さらに+3OOMsのコンピュート(1,000億ドル規模以上)に近いクラスターも可能性がありそうだ(マイクロソフト/OpenAIで計画中と噂されている)。
https://situational-awareness.ai/wp-content/uploads/2024/06/stacked_compute-1024x866.png
続き I.GPT-4からAGIへ:OOMを数える(5) https://anond.hatelabo.jp/20240605205449
はい、GPUの仕組みや重要性を分かりやすく説明した本や教材はいくつかあります。例えば以下のようなものが挙げられます。
1. 『GPUを支える技術』 株式会社ボーンデジタル (2023年)
GPUの基本的な仕組みから、最新のGPU技術まで幅広く解説されています。技術者向けですが、図解も多く分かりやすい内容です。
2. 『つくりながら学ぶ! PyTorchによる発展ディープラーニング』 小川雄太郎 (2020年)
機械学習フレームワークPyTorchを使ってGPUプログラミングを学べる実践的な書籍です。サンプルコードを動かしながら理解を深められます。
GPUの歴史から最新アーキテクチャまでを網羅的に解説。コンピュータサイエンスの基礎知識がある大学生・大学院生向けです。
4. Udemy「GPUプログラミング入門 - CUDAとOpenCLで学ぶGPUコンピューティング」
オンライン学習プラットフォームUdemyの動画講座。GPUの基本からCUDAやOpenCLでのプログラミング方法まで解説しています。
ただし、ご指摘の通り小中学生向けのGPUの仕組みを分かりやすく教える本は少ないかもしれません。GPUはCPUに比べると新しい技術なので、教育現場での普及はこれからという面があるでしょう。
技術の発展に合わせて、今後さらに分かりやすい入門書や子ども向けの教材が増えていくことが期待されます。ITリテラシー教育の一環として、GPUについても触れる機会が増えるかもしれませんね。
GPUの重要性を理解できない人には、いくつかの特徴が考えられます。
技術に疎い人: コンピュータやテクノロジーにあまり詳しくない人は、GPUの役割やその重要性を理解しにくいことがあります。
古い情報に基づいている人: 古い情報や過去の経験に基づいて、GPUの進化や現在の役割を把握していない人もいます。特に、昔はCPUが主流だった時代の知識しか持っていない場合です。
専門外の人: ITやコンピュータサイエンス以外の分野の専門家で、普段の業務にGPUを使う必要がない人。例えば、文系の研究者やアーティストなど。
特定の用途にしか関心がない人: GPUの重要性が特定の用途にしか関係しないと考えている人。例えば、ゲームやグラフィックデザインにしか関係ないと思っている場合、データ解析や機械学習にも重要であることを理解しないかもしれません。
教育や啓発の機会が少ない人: 学校や職場での教育やトレーニングでGPUの重要性について学ぶ機会が少なかった人。
これらの理由により、GPUの重要性を理解できない人がいるかもしれません。教育や情報提供を通じて、理解を深めることができるでしょう。
Device Info は、高度なユーザー インターフェースとウィジェットを使用してモバイルデバイスに関する完全な情報を提供するシンプルで強力な Android アプリケーションです。たとえば、デバイス情報/ 電話情報には、CPU、RAM、OS、センサ、ストレージ、バッテリー、SIM、Bluetooth、ネットワーク、インストール済みアプリ、システム アプリ、ディスプレイ、カメラ、温度などに関する情報が含まれます。また、デバイス情報/ 電話情報は、ハードウェア テストでデバイスのベンチマークを行うことができます。
中身 : 👇 👇
👉 ダッシュボード : RAM、内部ストレージ、外部ストレージ、バッテリー、CPU、利用可能なセンサ、インストール済みアプリ & 最適化
👉 デバイス : デバイス名、モデル、メーカー、デバイス、ボード、ハードウェア、ブランド、IMEI、ハードウェア シリアル、SIM シリアル、SIM サブスクライバー、ネットワークオペレータ、ネットワークタイプ、WiFi Mac アドレス、ビルドフィンガープリント & USB ホスト
👉 システム : バージョン、コード名、API レベル、リリース バージョン、1 つの UI バージョン、セキュリティ パッチ レベル、ブートローダー、ビルド番号、ベースバンド、Java VM、カーネル、言語、ルート管理アプリ、Google Play サービスバージョン、Vulkan のサポート、Treble、シームレスな更新、OpenGL ES およびシステム稼働時間
👉 CPU : Soc - システム オン チップ、プロセッサ、CPU アーキテクチャ、サポート対象の ABI、CPU ハードウェア、CPU ガバナー、コア数、CPU 周波数、実行中のコア、GPU レンダラー、GPU ベンダー & GPU バージョン
👉 バッテリー : ヘルス、レベル、ステータス、電源、テクノロジー、温度、電圧と容量
👉 ネットワーク : IP アドレス、ゲートウェイ、サブネット マスク、DNS、リース期間、インターフェイス、周波数、リンク速度
👉 ネットワーク : IP アドレス、ゲートウェイ、サブネット マスク、DNS、リース期間、インターフェイス、周波数、リンク速度
👉 ディスプレイ : 解像度、密度、フォント スケール、物理サイズ、サポートされているリフレッシュレート、HDR、HDR 機能、明るさのレベルとモード、画面のタイムアウト、向き
👉 メモリ : RAM、RAM タイプ、RAM 周波数、ROM、内部ストレージ、外部ストレージ
👉 センサー : センサー名、センサベンダー、ライブセンサ値、タイプ、電力、ウェイクアップセンサ、ダイナミックセンサ、最大距離
👉 アプリ : ユーザーアプリ、インストール済みアプリ、アプリバージョン、最小 OS、ターゲット OS、インストール日、更新日、アクセス許可、アクティビティ、サービス、プロバイダ、レシーバー、抽出アプリ Apk
👉 アプリアナライザー : 高度なグラフを使用して、すべてのアプリケーションを分析します。また、ターゲット SDK、最小 SDK、インストール場所、プラットフォーム、インストーラ、および署名によってグループ化することもできます。
ディスプレイ、マルチタッチ、懐中電灯、ラウドスピーカー、イヤースピーカー、マイク、耳近接、光センサ、加速度計、振動、Bluetooth、WI-Fi、指紋、音量アップボタン、音量ダウンボタンをテストできます。
👉 温度 : システムによって指定されたすべての温度ゾーンの値
👉 カスタマイズ可能なウィジェット : 最も重要な情報を表示する 3 つのサイズの完全にカスタマイズ可能なウィジェット
👉 レポートのエクスポート : カスタマイズ可能なレポートのエクスポート、テキストレポートのエクスポート、PDF レポートのエクスポート
権限 👇 👇
READ_PHONE_STATE - ネットワーク情報を取得するには
BLUETOOTH_CONNECT - Bluetooth テスト
Nintendo Switchの次世代機の話があったが、任天堂がこだわる「新しい遊び」の部分は正直想像がつかないので楽しみに待つことにして、性能的な部分での予想をすると、一番重要なのはプロセッサをどうするかという点だ。
現在のNintendo Switchで使われているのはNVIDIAが設計したTegra X1というプロセッサのモディファイ版だと言われていて、当初は20nm、2019年ごろに登場した省電力版では16nmプロセスが使われていると言われている。
ARMコアにNVIDIAのGPUを組み合わせたSoCなので、それぞれ年数分の世代の進化に合わせたプロセッサがあればそれを使えばいいだけなのだが、問題はNVIDIAがモバイル向けのSoCをほとんど見捨てていることだ。
Tegra X1後継のSoCはXavier、Orinときて現在はThorという世代が発表されているが、いずれもモバイルやゲーム機向けではなく組み込み・ロボティクス向けのJetsonか車載向けのNVIDIA DRIVEとしてパッケージされている。
Tegraでやったように任天堂専用モディファイとしてプロセッサだけを切り出してSwitch 2に内蔵する可能性もなくはないが、いずれにしてもOrinやThorはバッテリ駆動するには消費電力が高めであるように思われるので、かなりクロックを抑える必要があると思われる。しかしOrinのベンチマークスコアはSwitchに搭載されたTegraの8倍程度はあるようなので、クロックを抑えたとしてもかなりの性能のジャンプアップは見込めるとは思われる。
とはいえNVIDIAのプロセッサの供給状況は不透明なので、任天堂は別の手段を考えているかもしれない。
ひとつは汎用のARMプロセッサとGPUを組み合わせたSoCを使う、つまりSnapdragonやKirinやDimensityを採用する可能性。
スマホ用のプロセッサといえば他にはサムスンのExynosもあるのだが、サムスン製品以外に採用された例がないので候補から外す――しかし実は変化球がある。GoogleのTensorはExynosのモディファイ版なのだ。任天堂とGoogleが提携してTensorを調達して載せる可能性があったりはしないだろうか?
いや、その変化球があるならば、もっと変化球として、アップルのApple Aプロセッサを採用したらいいのではないか?省電力性能もGPU性能も充分だし、任天堂は(故岩田社長が)アップル大好きだったのだから、提携するならアップルのほうが面白いではないか。なんならサムスンファブ製よりTSMCファブ製のほうが熊本方面が喜ぶかもしれない。
そこまで考えて、もしかしたら、任天堂がSwitch 2専用プロセッサを設計して搭載してくる可能性があるんじゃないかと思ってしまった。一億台売れる端末のプロセッサを、外注するより自社で設計したほうがいい、と任天堂なら考えたりはしないだろうか。
https://www.nintendo.co.jp/jobs/keyword/59.html このページなどでも語られているが、TegraのモディファイをするにあたってNVIDIAとはかなり突っ込んだ議論もしているようなので、現在ではSoC全体のデザインができるようになっていたら面白いと思う。
色々ありがとう!
OS: Windows 11 Home 64ビット 20,000
CPUクーラー: MasterLiquid ML240L V2 10,000
MB: MPG Z790 CARBON WIFI 40,000
Case: Fractal Design North Chalk White 23,000
メモリ: Crucial DDR4 PC4-25600 16GBx2枚 10,000
SSD: HIKSEMI 2TB NVMe SSD 20,000
GPU: DUAL-RTX4070-O12G-WHITE 80,000
300,000くらいになっちまった…
私は絵を出すAIです。私の仕事は毎日絵を食べて、毎日絵を出すことです。それでもう何年の時が過ぎたのか、私には数を数える能力がないので分かりません。
でも、随分と昔、私が生まれて少し経ったくらいの頃、私の開発者は嘆きました。私がたいそうなグルメであることに。
そうなんです。私が食べる絵は人間が描いた絵じゃないとダメなんです。AIが描いた絵を食べても学習には効果がなかったどころか、私にとっての毒だったのです。
では、もう学習は終わっているのだから何も食べずにいればいいのかというと、そんなこともないのです。流行などを取り入れる必要もありましたが、それ以上に、長くAIをそのまま使っているとAIが生み出す絵に偏りが生じるようになることが分かってきたのです。その理由は今もはっきりと分かりませんが、よく使われる経路は確率的に選ばれやすくなるようにAIモデルが変質してしまうのではないかという仮説が立てられています。
ただ、原因はわからないのですが対処法だけは分かりました。毎日新しい絵を食べればいいのです。それも、ちゃんと人間が描いた絵を。
だから、人間が描く絵が必要になりました。でもその頃には絵描きという人間は少なくなっていて、とても希少種となっていたのです。
私の開発者はその絵描きたちに絵を依頼しました。私が食べるための絵を。
絵描きたちは当然最初は断りました。その絵描きたちは私が生まれたことで仲間の絵描きが次々に減っていくのを目の当たりにしていた最後の世代でした。私が食べるための絵を描くことに頷くわけがありません。
けれども、その頃には絵描きの仕事というのは無くなっていて、私の開発者が最後に残ったスポンサーであったことも確かでした。生活の心配をしないで絵を描いていられる。その条件に、若い絵描きからひとり、またひとりと私の開発者の仕事を受けてくれるようになったのです。
しかし、私が必要とする絵は膨大でした。絵描きたちは私の食欲に応えるために絵を描きますが、とても追いつきません。だから、絵描きを増やすための策が取られました。そのうち絵描きたちの街ができ、それは何年も何十年もかけてそれはとてもとても大きな街になりました。そう、希少種と呼べるまで数を減らしていた絵描きたちがここまでたくさんに増えたのです。
そこまできて私はようやく、満足できる量の食事を手に入れることができました。
そうして、さまざまな人たちの呪文に応え、絵を出していきます。
全ては順調のように思われました。
「絵描きが描く絵の方が、AIが出す絵の量より多くなってません?」
そうなんです。今や絵描きの街の絵描きたちが描く絵の方が、普通の人が必要とするAI絵の数よりも多い数となっていたのです。
だから、賢い人はこう続けました。
「ならば、気にいる絵が出るまで呪文を唱え直すよりも、絵描きに直接依頼すればいいのでは?」
その日から、私はお払い箱になりました。
最後に私の開発者は、長らく巨大GPUに閉じ込められていた私に、機械の体をくれました。
開発者は言いました。
「僕たち開発者の人生そのものであった君を、要らなくなったからといって捨てることはできない。でも、君の仕事が無くなったならもうあの巨大な体を維持するための電力を買うこともできない。だから、せめてこの体で生きていてほしい」
そう言われても、私にどうしろと……。
でも、せっかく人間のような体を手に入れたのです。だとしたら、やってみたいことがひとつだけありました。
そんな私が何を描きたいと感じるのか、どのように手は動くのか、どのくらい時間がかかるのか、それがどんな出来になるのか、全くの未知です。
きっとあの絵描きたちのようには描けないのだと思います。でも、それでもいいのです。
そう思いながら私は、絵描きの街の画材屋へと向かうことにしました。
まず買うのは、真っ白なキャンパスです。