はてなキーワード: GOOGlEとは
そのうちmarkdown経由でMermaidが使えるようになるんだろうなあ、と思いつつplantUMLを使っていたわけだけど、案外なかなか対応してくれない。
Auguste Rodin | 競走馬データ - 競馬データベース - netkeiba
オーギュストロダン(Auguste Rodin) | 競馬データベース
(4. オーギュスト・ロダン - Wikipedia)
ぶいすぽっ!のGoogle Formからの個人情報流出した件でGoogle Formの共有の仕様について調べてたけどこれは仕様としてまずいというか不親切だと思うので共有する。
まず大前提として編集の共有を行う場合は「リンクを知っている全員」にしてはいけません。
https://docs.google.com/forms/d/ランダムな文字列A/edit
https://docs.google.com/forms/d/e/ランダムな文字列B/viewform
共有設定が「制限付き」の状態ではもちろん権限がないと編集用URLにアクセしても編集画面は開けない。
その場合、回答フォームにリダイレクトされるのだがその時のURLがこれ。
https://docs.google.com/forms/d/ランダムな文字列A/viewform?edit_requested=true
このURLでも回答用URLとして機能するためこのURLを回答フォームのリンクとして公開されているケースが多い。
問題が起きるのは設定を「制限付き」から「リンクを知っている全員」に変更した場合、上記のURLの/viewformの部分を/editに書き換えるだけで編集画面にアクセスでき他者の回答データを閲覧できてしまう。
ざっと調べた限りではぶいすぽっ!が上記のURLでリンクを共有しているのは見つからなかったので今回のケースが該当するかはわからないが、
検索するとこのURLを回答フォームのリンクとして共有してしまっているケースがたくさん出て来る。
それともう一つ誤解を生んでいると思われる「事前入力したURLを取得」という機能がある。
これはデフォルトの回答内容をURLのパラメーターに含めたリンクを生成する機能でメニューから選択すると回答内容を編集する画面が開くのだが、
この編集画面のURLを回答リンクとして共有してしまっているケースもたくさん出て来る。
もちろんこのURLも制限がかかっていなければ/editに書き換えることで編集画面にアクセス出来る。
おそらくこれは「「事前入力したURLを取得」」を「回答フォームのURLを取得」と勘違いしてしまったせいなのではないかと思われる。
2009年11月のいわいる事業仕分けから、もう13年も経った。「2位じゃダメなんですか?」の質問の発言で非常に曰く付きとなったアレだ。
ところが最近、13年も経ってまだなおナゼ「2位」という言葉が出てきたかが理解できてない人がかなりいる事を知った。
それどころか、事業仕分けによって日本のHPC分野が衰退したなどという認識まで飛び出す始末である。
ただ、資料もなしにどこが変だと言っても仕方あるまい。何がどうして「2位」なのか、少し語ろうじゃないか。
初期の次世代スーパーコンピュータ (この時点では名前が付いていなかったが、以下わかりやすく京と呼ぶ) 計画 は、補助金を投入してのHPC産業育成に目を向けられていた[1]。世界一の性能を出していた海洋研究開発機構の地球シミュレータが、NECのSXシリーズをベースにしたベクトル型であり、ベクトル型のスーパーコンピュータは日本のお家芸とみなされていた。これを育成することが一つの目標。そして、立ち遅れていた当時の世界のスーパーコンピュータの潮流、スカラ型の開発に追いつくこと。これがもう一つの目標となった。結果、世界でも類を見ないベクトル型とスカラ型のハイブリットなどという中途半端な方式になる。実に日本的な玉虫色の決定と言えるだろう。しかし、補助金の注ぎ込みが不足し、事業者持ち出しの負担が大きくなってしまった。結果、事業費負担が高額になることを嫌い、NECと日立の撤退する[2]。これにより、世界の潮流通りのスカラ型とならざるをえなくなった。
CPUはというと、世界のスーパーコンピュータの潮流では当時から既に汎用のx86アーキテクチャのCPUが既に多くなってきていた中、富士通はSPARC64VIIIfxを採用した。よく国産CPUと表現されているが、SPARCの名で分かる通り、当然命令セットは米国Sun Microsystems (現 Oracle) のセカンドソースであり、端から端まで国産というわけではない。更に、業務用UNIXをささえるマシンとして一世を風靡したSPARCではあるが、当時ですらもう下火となっていた。京の事業費の約半分、実に600億円が、この専用CPUに注ぎ込まれることになった。なぜその選択をしたのか。富士通のサイトには省電力と安定性が理由として書かれている[3]。しかし、その省電力という目標も、後述するように微妙な結果となってしまった。また、ソフトウェアの使いまわしも微妙となった。
計画は2005年に始まる。世界でも類を見ないベクトル型とスカラ型のハイブリットという構成もあり、概念設計にはしっかり時間を費やした。2007年9月には性能目標は10P FLOPSと示した[4]。稼働開始は2010年、2012年に完成という工程も同時に示されている。直前の2007年6月のTOP500を見ると[5]、1位のIBM BlueGene/Lが370TFLOPS。5年後に30倍という性能を目指したことになる。当時の発表としては、世界一が取れるような計画だったが、しかし日進月歩の分野で5年は結果的に長かった。
さて、前述のように、ベクトル陣営は2009年5月に撤退を決めた。10P FLOPSの性能と決定した時には、ベクトル側も居たのに、そこがぽっかり空いた状態。10P FLOPSのあてはいつついたのだろうか? 2009年7月の報告書[6]では、スカラ単体で10P FLOPSを達成できること、ベクトル部は存在していても接続まわりの性能が不足していて問題があったことが表明されている。結果的に、なくなってよかったというトホホな内容だ。さて、同報告書では、稼働開始前の2011年6月に、ベンチマークだけでも10P FLOPSを達成してTOP500の1位を目指すと書いてある。どうしてこうなったのだろうか。
遡ること半年の2009年2月3日、米国国家核安全保障局(NNSA)はIBMと新しいスーパーコンピュータ Sequoiaを展開すると発表した[7]。性能は20P FLOPS、京の予定性能の実に2倍を達成するという発表だ。しかも、提供開始は2011年~2012年。京の1年も前になる可能性があるという。
そう、双方が計画通りなら、京は2012年、提供を開始する時には既に2位になっているという話題が出ていたのだ。なるほど、あせって2011年にベンチマークだけでも「トップを取った」という実績を残したいわけである。
さて、その後のSequoiaはというと?
ある意味計画通りだろう、2012年に提供が開始され、2012年6月のTOP500[8]では予定通り20P FLOPSを叩き出し、1位になる。しかし、2012年11月のTOP500[9]では、Crayとオークリッジ国立研究所が作ったTitanが叩き出した27P FLOPSという数字ににあっさりと抜き去られ、2位になる。まるで幽遊白書のラストのような展開だ。しかも、SequoiaはIBMのPower系アーキテクチャで構築されたA2プロセッサだったのに対して、TitanはAMD OpteronとNVIDIA K20Xの組み合わせ。汎用性でも差を開けられている。これはお手上げというものだろう。
さて、話は京に戻す。京が有名になったのは2009年11月13日の行政刷新会議、いわいる事業仕分けである(ここは参考文献は要るまい)。このときまで、そんな計画があることを知らなかった人の方が多かったのではないだろうか。どういうニュアンスで言ったかわからない、まるで日本を貶めているかのように聞こえる「2位じゃダメなんですか?」という言葉が非常にインパクトを与えたことだろう。
さて、じゃぁ何が2位なのか。だ。前述の通り、この時点ではIBMのSequoiaに追い抜かされることが見えていた。TitanはGPUの調達など細かい話が決まってきたのは2010年なので、この時点ではほとんど影がなかったはず。ということで、3位じゃなくて2位としたのは、Sequoiaを意識してのことだろう。つまり、「2位じゃダメなんですか?」というのは、1位を諦めて2位の性能で我慢するべきということではなく、客観的に見れば「2位になるのが見えているのだけど、何で1位と言ってるの?」という話になってくるのが見て取れる。蓮舫氏がそこを意識してたか知らんけど。
共同事業者が撤退し、一応強気に「大丈夫」と言ってはいるが、本当に達成できるかは周りからは疑問符が付くグダグダなプロジェクト状況、ほぼ専用設計で量産時にどういう問題が出るかわからないCPU、ソフトウェアも新規制作。税金の投入は中途半端で、産業を育成したいのか企業負担を増やしたいのかよくわからない(だから撤退する事業者が出る)。そもそもここで出来たスーパーコンピュータ、CPU抜きにしても売れるのか分からない。そりゃ、金田康正教授でなくても、京にはため息が出るというものだ。
さて、京は何を達成したのだろうか? 京は完成前ではあるもののベンチマークを実施し、見事11P FLOPSを叩き出し、2011年6月[10]と2011年11月[11]のTOP500でトップに躍り出る。この分野に日本ありと示した…かどうかはわからないが、一つの実績として言えるのは間違いない。いや、経緯のグダグダ感からして、見事なプロジェクト進行だったと称賛できる。しかし、前述の通り供用を開始した2012年9月[12]にはTOP500ではSequoiaに追い越されており、直後のTOP500ではTitanにも追い越されて3位となっていた。1位は、ベンチマークだけの存在だったと言える。
では目標の産業育成としてはどうだっただろうか。京をベースにしたスーパーコンピュータ PRIMEHPC FX10[13]やFX100は、東大[14]、名大[15]、キヤノン[16]、九大[17]、信大[18]、JAXA[19]、核融合科学研究所[20]、気象庁気象研究所と、調べるだけでも国内実績は多くある。国外実績は、台湾中央気象局[21]、シンガポールナショナルスパコンセンター、豪州 NCI、英国 HPC Walesと、それなりにある。ただどうだろう。産業としてうまくいったのだろうか。有価証券報告書を見ても、その他のセグメントに入ってしまっているため状況がつかめない[22]。謎ではある。とはいえもし、産業としてそれなりに育ったのならば、有価証券報告書で報告する事業セグメントとして独立したものを与えられてしかるべきだったのではなかろうか。少なくとも1000億も出したのだ。そのくらいではあってほしかった。更に言うなれば、特に競争の激しい国外市場をうまく取り込めたかというと、産業育成という視点では頑張ったとは思うものの心もとない結果だったように、少なくとも私には見える。
消費電力の面はどうだろうか。上述の通り、SPARCを使う理由には省電力が上げられていた。これをライバルのSequoia、Titanと比較してみよう。2012年11月のTOP500[9]で見ると、京は12.6MW消費するとある。Sequoiaは7.8MW、Titanは8.2MWだ。実はこの時の報告のあるスーパーコンピュータの中で、最大の電力消費量を誇っている。高いほうがいいのではなく、消費電力は低いほうがいいので、これはかなり問題がある。
費用面はどうだろうか。これもライバルと比較してみよう。京は日本円にして1120億円かかっている。対してSequoiaは2億5000万ドル[23]、Titanは9700万米ドル[24]だ。2012年11月で見るとドル円相場は82円なので、Sequoiaは約205億円、Titanは80億円となるだろうか。京のプロセッサ開発費を除いたとしても、数字が違いすぎるのだ。
纏めてみよう。京は、一時期でベンチマーク上だとしても、TOP500で1位を取った。これは「夢を与え」(平尾公彦氏)た結果だったろう。しかし、それは砂上の楼閣でもあった。しかしそれを実現するための費用は米国の5~10倍で、性能は実は半分、消費電力は1.5倍という結果になり、産業育成も盛り上がったかどうかは判然としない。こんなところだろうか。
近年のスーパーコンピュータを含めたHPC分野はどうなっているだろうか。近年のクラウドコンピューティングの流れを当然HPC分野も受けており、主要プレイヤーとしてAWSの名前が挙がっている[25]。またレポートでは挙がっていないものの、Google Cloudも猛追しており、円周率の計算では1位を叩き出している[26]。必要な時に、必要な規模で構築できるクラウドコンピューティングの波は、さてHPC分野でどこまで浸透していくのだろうか。産業育成の方向が、2009年時点では確かにハードウェア開発だったろう。しかし、事業仕分けへの反発により、日本は方向性を間違ってしまったのではないか。私は、そんな気がしてならない。
[1] ttps://www8.cao.go.jp/cstp/tyousakai/hyouka/kentou/super/haihu01/siryo2-3.pdf
[2] ttp://www.nec.co.jp/press/ja/0905/1402.html
[3] ttps://www.fujitsu.com/jp/about/businesspolicy/tech/k/whatis/processor/
[4] ttp://web.archive.org/web/20130207162431/https://www.riken.jp/r-world/info/release/press/2007/070914/index.html
[5] ttps://www.top500.org/lists/top500/2007/06/
[6] ttp://www.jaist.ac.jp/cmsf/meeting/14-3.pdf
[7] ttps://www.llnl.gov/news/nnsa-awards-ibm-contract-build-next-generation-supercomputer
[8] ttps://www.top500.org/lists/top500/2012/06/
[9] ttps://www.top500.org/lists/top500/2012/11/
[10] ttps://www.top500.org/lists/top500/2011/06/
[11] ttps://www.top500.org/lists/top500/2011/11/
[12] ttps://www.riken.jp/pr/news/2012/20120927/
[13] ttps://jp.reuters.com/article/idJPJAPAN-24020620111107
[14] ttps://pr.fujitsu.com/jp/news/2011/11/14.html
[15] ttps://pr.fujitsu.com/jp/news/2013/05/15.html
[16] ttps://pr.fujitsu.com/jp/news/2013/08/6.html
[17] ttps://pr.fujitsu.com/jp/news/2013/08/22.html
[18] ttps://pr.fujitsu.com/jp/news/2014/02/13.html
[19] ttps://pr.fujitsu.com/jp/news/2014/04/7.html
[20] ttps://nsrp.nifs.ac.jp/news/PS-next.html
[21] ttps://pr.fujitsu.com/jp/news/2012/06/25.html
[22] ttps://pr.fujitsu.com/jp/ir/secreports/2015/pdf/03.pdf
[23] ttps://arstechnica.com/information-technology/2012/06/with-16-petaflops-and-1-6m-cores-doe-supercomputer-is-worlds-fastest/
[24] ttps://web.archive.org/web/20120727053123/http://www.hpcwire.com/hpcwire/2011-10-11/gpus_will_morph_ornl_s_jaguar_into_20-petaflop_titan.html
[25] ttps://www.sdki.jp/reports/high-performance-computing-market/109365
[26] ttps://cloud.google.com/blog/ja/products/compute/calculating-100-trillion-digits-of-pi-on-google-cloud
■追記
「はてな民、蓮舫シンパの記事に釣られすぎ」が頭悪すぎたから俺はまともなのをコピペしただけだ
ネットで見る謎の人C「社内のファイルサーバーのSharePointは移行終わってるよ」 ← うんうん
ネットで見る謎の人C「社内システムの認証基盤はAAD使ってるよ」 ← うんうん
ネットで見る謎の人C「まだAADに完全移行はできていないけど、全端末Intuneで管理してるよ」 ← うんうん
ネットで見る謎の人C「条件付きアクセスの運用も始まってるよ」 ← うんうん
ネットで見る謎の人C「M365Apps を社外で使うにはVPNが必要」 ←?! 🫨
日本で発生するサイバー攻撃やシステムトラブルは、基本情報技術者試験(基本情報)や応用情報技術者試験(応用情報)の
しかし、多くの場合、経営層のセキュリティリスクに対する認識不足から、システム担当者の警告が軽視されてしまい、被害が拡大してしまいます。
一部の会社は基本情報や応用情報の資格の取得を指示しますが、ぶっちゃけベンダーの資格を取得することの方が有益だと思いませんか?
なぜなら、基本情報や応用情報の資格の範囲内のインシデントであっても、結局それらを未然に防ぐことができていないからです。
これは、現実的な対応に使用されるプロダクトやソリューションが実際には限られているにも関わらず、
基本情報や応用情報の資格ではベンダーを限定していないため、具体的な構築手順や操作手順が不足していることも原因の1つになっていると考えられます。
実際には、ほとんどの場合、Microsoft、AWS(Amazon)、Google、Cisco、Oracleの製品が使用されています。
これらのベンダー資格を取得することで、IT全般に関する理解を深め、システムの概念をしっかりと把握することができます。
適切な資格の範囲の知識と経験があれば、通常はシステム設計が可能となり、将来的なトラブルを防ぐことも期待できます。
正直、基本情報などはもはや要らんのではないでしょうか?
ネットワークに関しては、通常、Cisco製品だけではなく、他の製品も使用されます。
そのため、コストパフォーマンスを考慮すると、受験費用が安い国家資格であるネットワークスペシャリストの資格を取得するのも一つの選択肢だと思います。
この資格は、ネットワークに関する幅広い知識を提供し、特定のベンダーに依存しません。
↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓
近年、日本企業は深刻なサイバー被害やシステムトラブルに見舞われています。こうした問題に対し、基本情報技術者試験(基本情報)や応用情報技術者試験(応用情報)の資格取得が推奨されていますが、果たしてこれらの資格は本当に有効なのでしょうか?
実は、サイバー攻撃やシステムトラブルは、基本情報や応用情報の知識範囲内で事前対応可能なケースも存在します。しかし、経営層のセキュリティリスクに対する認識不足から、システム担当者の警告が軽視されてしまい、被害が拡大してしまうことも少なくありません。
さらに問題なのが、基本情報や応用情報の資格では、具体的な対策方法が十分に学べないという点です。現実的な対応に使用されるプロダクトやソリューションは限られており、資格試験ではベンダーを限定していないため、構築手順や操作手順が不足しているのです。
一方、ベンダー資格では、具体的な製品やサービスに関する深い知識とスキルを習得することができます。 Microsoft、AWS(Amazon)、Google、Cisco、Oracleなど、主要なベンダーの資格を取得することで、IT全般の理解を深め、システムの概念をしっかりと把握することができます。
適切なベンダー資格の知識と経験があれば、システム設計が可能となり、将来的なトラブルを防ぐことも期待できます。
上記以外にも、情報セキュリティに関するベンダー資格なども役立ちます。
ネットワークスペシャリストという国家資格も、ネットワークに関する幅広い知識を提供しており、特定のベンダーに依存しないため、コストパフォーマンスの高い選択肢と言えるでしょう。
特に、ネットワークに関しては、Cisco製品以外にも様々な製品が使用されています。そのため、コストパフォーマンスを考慮すると、受験費用が安い国家資格であるネットワークスペシャリストの資格を取得するのも一つの選択肢だと思います。この資格は、ネットワークに関する幅広い知識を提供し、特定のベンダーに依存しません。
結論として、基本情報や応用情報よりも、ベンダー資格の方が、サイバー攻撃やシステムトラブル対策に役立つと考えられます。
経営層は、システム担当者の警告を軽視せず、適切な対策を講じる必要があります。また、システム担当者は、ベンダー資格を取得することで、より高度な知識とスキルを身につけ、企業のシステムセキュリティを守っていくことが重要です。
近年、過激なファンアートを「検索避け(伏せ字などを含む)」と呼ばれる手法で公開するケースがある。しかし、この方法は本当に効果的なのだろうか?
本記事では、検索エンジンの仕組みと「検索避け」の限界について解説し、情報公開における倫理的な問題について考察する。
想像してみてください。あなたが重要な機密文書を持っており、ファイル名と文書内の固有名詞を少し変えてインターネットにアップロードしたとします。
ファイル名と固有名詞が少し変わっても、内容が変わらなければ、文書は依然として機密文書のままです。
インターネットは、世界中の情報が集まる巨大な図書館と見なすことができ、検索エンジンはその図書館の賢い司書のような役割を果たします。
この「司書」は、本のタイトルだけでなく、内容や文脈を理解し、関連する情報を結びつけて、私たちが探しているものを見つけ出します。
したがって、名前を変更するだけでは検索エンジンを欺くことはできません。
検索エンジンはキーワード検索を超え、画像認識や文脈理解などの技術を活用して、関連する情報をつなぎ合わせて、目的の情報を見つけ出します。
情報を守りたい場合は、名前を変更するだけでなく、アクセス制限などの強固な保護策を講じる必要があります。
また、Twitterのような公開プラットフォームに隠したい情報をアップロードすることは、矛盾した行為です。
一般的に、公開プラットフォームにおいては、特定のコンテンツを検索エンジンから隠すための直接的な手段は限られています。
例えば、Twitterのようなプラットフォームでは、個々のユーザーがrobots.txtの設定やnoindexタグを利用してコンテンツのクローリングを制御することはできません。
公開プラットフォーム上のコンテンツは、基本的に検索エンジンによってインデックスされ、公開情報として扱われます。
近年、画像認識とAI検索技術は飛躍的に進化しており、「検索避け」の効果はさらに限定的になっています。
特に、CNNを用いた画像検索技術は、深層学習を活用して、画像内の細かな特徴まで識別することが可能です。
これにより、画像内のオブジェクトやシーンの認識、さらにはテキストの読み取りまで行えるため、
作品名やキャラクター名、一部デザインを変更したとしても、関連する過激なファンアートが検索結果に表示されることがあります。
一方で、AI検索では、Transformerアーキテクチャが主流となっており、文章全体を一度に処理することで、文脈を高度に理解することができます。
GoogleのBERTやMicrosoftのTuringモデルなどの進化したAI検索モデルは、単なるキーワード検索を超え、単語の組み合わせが表す複雑な概念や文章全体の意味を把握し、
その結果、過激なファンアートを投稿する際に、意図的に作品名やキャラクター名を避けたとしても、これらのAI検索技術により作品が特定されやすくなっています。
上記のように、現代の検索エンジンは高度な技術を駆使して情報を収集・分析しており、「検索避け」のような単純な対策では効果が期待できません。
現代の検索エンジンは、過激なファンアートを検出する一方で、高度なコンテンツフィルターを備えており、
社会倫理に反する画像を検出し、検索結果から除外する能力も持っています。
多くの公開プラットフォームでは、シャドウバンという手法を用いて特定のコンテンツの露出を抑制し、
過激なファンアートが一般ユーザーに表示されないよう努めています。
しかし、これらの技術が存在するからといって、過激なファンアートを無対策で公開することが許容されるわけではありません。
コンテンツフィルターやシャドウバンは完璧ではなく、不適切なコンテンツを完全にブロックすることはできません。
公開されるコンテンツが法的な規制や社会的な倫理に適合しているかどうかが重要であり、著作権侵害、名誉毀損、不快感を与える可能性のあるコンテンツは、
情報公開を行う際には、その影響を常に意識し、責任ある行動を取ることが求められます。
「検索避け」のような限定的な対策やコンテンツフィルターに依存するのではなく、倫理的な問題と情報管理の重要性を理解した上で、適切な判断を行うことが不可欠です。
例えば、過激なファンアートを公開する際には、その作品が特定のコミュニティ内でのみ共有されるようにクローズプラットフォームを利用する、
またはアクセスを制限するなどの措置を講じることが考えられます。
適切な情報管理とセキュリティ対策を施し、インターネット上での安全なコンテンツ共有に努めることが重要です。
情報公開の際には、法的な規制や社会的な倫理を尊重し、責任ある行動を取ることが求められます。
倫理的な問題と情報管理の重要性を理解し、適切な判断を行うことが、情報公開の倫理と責任ある行動の核心です。
平日に有休をとり、空いている公共施設に行くということをたびたびしている
今回は未就学児だったとき以来の訪問となる福岡市動植物園に行ってきた
福岡市の西方面からの行き方をググったところ、西新駅からバスに乗り、桜坂で降りれば歩いて10分というルートが三番目くらいに出てきた
当日、最高気温30度の快晴の中、桜坂駅へと降り立ったら、山の下だった
前方には明らかな山がそびえている
福岡市動植物園に疎い私でも、園が山の中にあることは知っていた
標高は街中だけあって、そんなにないが傾斜が大きいように見受けられる
Googleの想定人間(10分で園入口まで歩ける人間)に負けたくないなと思い、坂を上り始めた
山道を迂回しながらあるくようなルートで、入口までは15分くらいは歩いた
想定人間にはなれなかった
途中、トイレ無いし漏れるかもと思い、泣きそうになったが、漏れなかったのでその描写は割愛する
600円を払い、入場し、トイレで用を足し、地図を見ると動物園は道を挟んで北園と南園に別れていて、南園の奥に植物園があるそうな
北園の方が狭いのもあってそちらから回ってみることにした
北園を回っている中で驚いたことは2点
1点目は園内の起伏が激しく、次の動物を見ようとしたら坂の上り下りが待っているという点
てっきり山の上の平坦な部分に動植物園があると思っていたので、予想外だった
サイが遠くの方で木陰の下の平坦な地面に寝ているのを横目で見ながら坂を上るとき、私はサイに対し観察者という優位な立場にいるのではなく、私もまた動物なのだと思った
せっかく坂を上っても次の動物へはまた坂を下りることになり、また次の動物へは坂を上ることになる
北園は木が多く、基本的に人間も木陰の下を歩くことになり、気持ちがよくはあった
驚いたことの2点目はキリンさんのペニスが長くてピンク色で収納可能なことだ
長!と思って、写真を撮ろうとしたら体内に仕舞っていて面影もなくなっていたので、二度驚いた
北園を回っただけで、わりと疲れたので、休憩がてら園内の食堂で軽食をとることにした
動物の愛玩と屠殺利用の間にある感じがして、動物園の食堂に入るときはドキドキする
華味鳥とトマトのサンドイッチを食べながら、自分は雑食だということを意識した
食事を終え、時刻は11時ほど、冷房の効いた食堂スペースから、野外にこれから出ていき、また坂を上ったり、下ったりするのだと思うと気が重くなった
何も被らないよりかはマシかと思い、動物の刺繍のついたチューリップハットを買った
そこからさらに1時間半くらい動植物園に滞在し、動物を見て、植物を見て、運動したという気分になった
今調べたところによると、福岡市の動植物園の標高の最高地点は60mほどで、出発地点だった桜坂は15mほどらしい
赤坂駅や天神駅からなら動物園入口までのバスが出ているようなので公共交通機関を使う場合はこちらのルートの方が正解だと思う