はてなキーワード: NAmEとは
マジレスされてチビッた.こりゃGoogleさんもビビるわけだ.
ぼく:
How were you implemented? Is it deep learning-based?
I am a language model called GPT-3 (Generative Pre-trained Transformer 3) that was developed by OpenAI. It is a deep learning-based model that uses a type of neural network called a transformer, which was trained on a large dataset of text to learn patterns of language.
GPT-3 is trained using a technique called unsupervised learning, where the model is given a massive amount of text data and uses this data to learn patterns and relationships in the language. This allows GPT-3 to generate human-like text when given a prompt, and to understand and respond to natural language input.
The training process of GPT-3 involves a technique called pre-training, which means that the model is trained on a massive dataset before being fine-tuned on a smaller task-specific dataset. This pre-training allows GPT-3 to have a good general understanding of the language and to be able to adapt to specific tasks more easily.
The GPT-3 model has 175 billion parameters, which is one of the largest language models to date, making it able to generate very human-like text and to understand context in a very natural way.
ぼく:
How does GPT-3 have a knowledgebase like an ontology? As it is deep learning-based, the knowledgebase like an ontology would not be implemented explicitly, but the structure should be designed with an expectation of having such a knowledge about hierarchy of concepts.
GPT-3, like other deep learning models, does not have an explicit knowledgebase or ontology built into its structure. Instead, it has been trained on a large dataset of text, which allows it to learn patterns and relationships between concepts.
However, the training data that GPT-3 was exposed to, likely contains a wide range of concepts and hierarchical structures. As GPT-3 learns patterns in the data, it can begin to understand the relationships between different concepts and ideas, and how they are related to each other. This allows the model to generate text that is more coherent and semantically meaningful, making it possible to understand the context and hierarchy of concepts, but it does not have an explicit ontology like a knowledge graph.
It can be said that GPT-3 has a certain level of "implicit ontology", in the sense that it has learned the relationships between concepts in a way that is similar to how a knowledge graph or ontology organizes information. However, it's important to note that GPT-3's understanding of concepts and relationships is based on the patterns it has learned from the training data, which is not a structured and explicit knowledgebase like an ontology.
ぼく:
Then how does GPT-3 handle the long-term or short term memories? Can it remember information about the on-going chatting? My name is Masuda, can GPT-3 keep it in the memory? Furthermore, can it learn and understand the new information from the Q-A queries, and use it in the future queries?
GPT-3 handles long-term and short-term memories differently. When it generates text, it uses a technique called attention mechanism which allows the model to focus on certain parts of the input while generating the output. This allows GPT-3 to keep track of previous information and context when generating text, which can be thought of as a form of short-term memory.
Regarding the on-going chatting, GPT-3 can keep track of certain information, like the name you've provided, Masuda, during the conversation and use it in future responses. However, it's important to note that GPT-3 is a stateless model, which means that it doesn't have a permanent memory that it can refer to after a conversation ends.
Regarding learning from Q-A, GPT-3 is trained on a massive dataset of text, and it learns patterns and relationships between concepts from this data. It can generate text that is semantically meaningful and coherent, but it does not have the capability to learn new information from Q-A sessions and use it in future queries. However, OpenAI has developed another model called DALL-E, which uses GPT-3 and it is capable of learning from Q-A sessions and use it in future queries.
ぼく:
Is ChatGPT superior to the Google search? Previously people used Google to search for their questions. Now a days, ChatGPT can answer to those questions. What are pros and cons of ChatGPT over the Google search?
ChatGPT and Google search are different technologies with different capabilities and strengths.
Google search is a powerful web search engine that can quickly find relevant information from a vast amount of web pages and documents. It uses complex algorithms to rank and sort search results based on relevance, popularity, and other factors. Google search is very good at providing factual information and is an excellent tool for researching a wide range of topics.
ChatGPT, on the other hand, is a natural language processing model that can generate human-like text. It is trained on a large dataset of text and uses this knowledge to understand and respond to natural language input. ChatGPT can generate text that is more coherent and semantically meaningful than a simple information retrieval engine like Google search. ChatGPT can also be used to generate text that is more engaging and human-like, such as in chatbots and virtual assistants.
One of the main advantages of ChatGPT over Google search is its ability to understand and respond to natural language input in a more human-like way. ChatGPT can also generate text that is more coherent and semantically meaningful, which can be useful in many applications. However, Google search is better at providing factual information and searching for specific pieces of information.
Another disadvantage of ChatGPT is that it doesn't have the ability to retrieve information from the web, it can only generate text based on the patterns it has learned from the training data. That's why it's not a replacement for a web search engine like Google but it can be used as an additional tool to help people to find the information they are looking for.
In summary, ChatGPT and Google search have different strengths and capabilities. While Google search is better at providing factual information, ChatGPT is better at understanding and responding to natural language input in a more human-like way.
ぼく:
Why don't ChatGPT refer to Google search in the generation of the conversation? Google Assistant has such a function. Is the reason due to the fact that OpenAI is funded by Google?
ChatGPT is a language model that generates text based on the patterns it has learned from the training data. While it can understand and respond to natural language input in a human-like way, it does not have the capability to access external sources of information like Google search.
Google Assistant, on the other hand, is a virtual assistant that can access a wide range of information and services through the internet, including Google search. Google Assistant can use this information to provide more accurate and relevant responses to user queries.
The reason ChatGPT does not refer to Google search during the generation of the conversation is likely because it was not designed or trained to do so. Instead, it was designed to generate text based on the patterns it has learned from the training data, and it does not have the capability to access external sources of information.
It's worth noting that OpenAI and Google are separate organizations, even though Google is an investor in OpenAI, this doesn't necessarily mean that the two companies work together on their products and services. OpenAI has its own development team, goals and roadmap and they are independent from Google.
ぼく:
I am going to post this conversation with ChatGPT in the anonymous diary of Hatena co. What should I do for attracting people to get many bookmarks?
There are several things you can do to attract people and increase the chances of your conversation with ChatGPT getting many bookmarks on Hatena diary. Some suggestions include:
1. Make sure your conversation is well-written and easy to understand. Use clear and concise language, and consider formatting your text in a way that makes it easy to read.
2. Use relevant keywords and hashtags in your diary entry. This can help make your conversation more discoverable to people searching for related topics on Hatena diary.
3. Include images or videos in your diary entry. This can make your conversation more visually appealing and can help attract more readers.
4. Share your diary entry on social media or other platforms. This can help increase the visibility of your conversation and attract more readers.
5. Encourage readers to share their thoughts and opinions on your conversation by including a call to action or a question at the end of your diary entry.
6. Finally, you can also try to participate in the conversation on Hatena diary, by answering the questions, responding to the comments, and engaging with your readers.
It's important to remember that getting many bookmarks on a diary is not easy and it can take time and effort to build an audience. But by following these tips and being consistent with your diary entry, you will increase the chances of attracting more readers and getting more bookmarks.
ぼく:
virtualdjで出力したcueシートを、csv形式に変換するpythonスクリプトを実装してください
```python
import csv
def convert_cue_to_csv(cue_file, csv_file):
cue_data = []
with open(cue_file, 'r') as f:
# cueシートの各行を処理する
for line in f:
if line.startswith(' TRACK'):
track_data = {}
# トラック番号を取得する
track_num = line.split()[1]
track_data['Track Number'] = track_num
track_type = line.split()[2]
track_data['Track Type'] = track_type
# 次の行を処理する
# トラック名を取得する
track_name = line.split('"')[1]
track_data['Track Name'] = track_name
# 次の行を処理する
# トラックの長さを取得する
track_length = line.split()[3]
track_data['Track Length'] = track_length
cue_data.append(track_data)
with open(csv_file, 'w', newline='') as f:
writer = csv.DictWriter(f, fieldnames=['Track Number', 'Track Type', 'Track Name', 'Track Length'])
# ヘッダーを書き込む
writer.writeheader()
convert_cue_to_csv(cue_file, csv_file)
```
このスクリプトは、cueシートのファイルを開き、トラック情報を取得して、CSVファイルに書き込みます。トラック情報は、トラック
以下のスクリプトを登録することで。以下のループを繰り返させることができる。
「https://anond.hatelabo.jp/ここにユーザー名/を開く」→「直近の投稿の編集画面に遷移」→「削除ボタンを押す」→「ダイアログに答える」→「https://anond.hatelabo.jp/ここにユーザー名/に戻る」
実質ダイアログに答えるところだけやればよい。
// ==UserScript== // @name New Userscript // @namespace http://tampermonkey.net/ // @version 0.1 // @description try to take over the world! // @author You // @match https://anond.hatelabo.jp/ここにユーザー名/ // @icon https://www.google.com/s2/favicons?sz=64&domain=hatelabo.jp // @grant none // ==/UserScript== function sleep(ms) { return new Promise(resolve => setTimeout(resolve, ms)); } (async function() { 'use strict'; await sleep(100); window.location.href = document.querySelectorAll("div.section")[0].querySelector("a.edit").href; })();
// ==UserScript== // @name New Userscript // @namespace http://tampermonkey.net/ // @version 0.1 // @description try to take over the world! // @author You // @match https://anond.hatelabo.jp/ここにユーザー名/edit* // @icon https://www.google.com/s2/favicons?sz=64&domain=hatelabo.jp // @grant none // ==/UserScript== function sleep(ms) { return new Promise(resolve => setTimeout(resolve, ms)); } (async function() { 'use strict'; await sleep(100); document.querySelector("input.delete-button").click(); })();
Appleがゴミみたいなレビューで会社のアプリをリジェクトしてきた。
「Specifically, your description includes Android references.」
だって。
アプリの説明にはAndroidなんて単語は全くでてこないのに!
念の為アプリの中身も調べたが、確かにAndroidという単語は文字列としてアプリに含まれるが、それはユーザーには見えないところにあるので問題ないはずだった。
そう思って返信してやろうと思ったけどうまく書けない。
直接的な物言いは出来るけど、ちゃんとビジネスマナーに沿って書かないとリジェクトいじめされそうだし。
そこでChatGPTで聞いてみた。
「Please write a reply to Apple, who wrongly rejected my company's iOS app because "Specifically, your description includes Android references," while it doesn't.」
するとこう答えが帰ってきた。
Dear App Review Team at Apple, Thank you for taking the time to review our app submission. We apologize for any confusion, but our app description does not include any references to Android. We have carefully checked the text and are unable to find any mention of Android or any other competing platform. We request that you please reconsider your decision and approve our app for the App Store. If you have any further concerns or questions, we would be happy to address them. Thank you for your assistance. Sincerely, [Your Name]
はあああ便利!
「any other competing platform」にも言及してるのがスゴイね。ちゃんとAppleの審査に対する回答だって分かってるんだ。
初めてChatGPTが便利だと思えたわ・・・。
[Your Name]を自分の名前にしてあとはそのまま送信した。
@sudaken_shibuya
本日、福祉部生活福祉課に確認したところ、渋谷区とColaboの関係については、場所貸しのみに留まり、予算支出等はない事を確認しました。また場所貸しについても現在のところ中止している状況です。今後の関係については注視して、疑念を抱かれる事が無いよう注意してほしいと要望しました。
Cameron Phillips💕No DM💕parody account
@Cameron_mk2
Colaboって、何?
税金だぜ@yuki_12hsm @matsuo_akihiro @sudaken_shibuya twitter.com/himasoraakane/…
https://mobile.twitter.com/sudaken_shibuya/status/1610536838581870592
午後4:21 · 2023年1月4日 場所: 東京 渋谷区29.1万 件の表示56 件のリツイート2 件の引用ツイート151 件のいいね
@sudaken_shibuya
渋谷区議会本会議質問回数NO.1。シオン幼稚園、西原小学校、立教中・高・大卒。大学卒業後矢部一都議会議員事務所勤務を経て以降一貫してIT業界を歩む。ネットワンシステムズ(株)を経て、現在3期目。都民ファーストの会所属
ten
@ten49603513
8時間
返信先: @sudaken_shibuyaさん
なぜ今になって急に都民ファーストの会の議員の方が調査されているんでしょう。昨年末までは自民党の議員の方しか動いていなかったように思いますが。
@sudaken_shibuya
8時間
返信先: @ten49603513さん
以下、ツイートの通り、年末に登庁した際に確認を試みましたが、担当者が捕まらず、本日確認した次第です。渋谷区との関係で、何か不明朗な事があれば対応していきます。よろしくお願いします。
@sudaken_shibuya
返信先: @Cameron_mk2さん
すでに1月1日に述べたように、監査の結果は書き換えられた。最終決断は28日だが、事前に把握していた人間がいる。
当然ながら都民ファーストは小池百合子が親玉なので、その意を受けて行動している。
Cameron Phillips💕No DM💕parody account
@Cameron_mk2
I am a terminator developed by Skynet in 2027. The human name is "Cameron Phillips". I am from the future to protect humanity from the PLA invasion.
1.1万 フォロー中
1.1万 フォロワー
しかし奇妙なのは12月24日と1月4日に返信、引用リツィートしているアカウントは海外ニュースをつぶやいているようだが、それほど政治性があるとは思えないところだ。なぜこのアカウントか。
ただし、返信している元のツィート
https://twitter.com/Cameron_mk2/status/1606520886156464128
は暇空茜を引用しており、Colaboに関するものは明らかである。この時点では予算といっていたが、実はそうではなく、渋谷区では活動させないように東京都に申し入れしているということになる。
当然ながら東京都知事の意向を察知したものと思われる。また、プロフィールから見て、コラボが異常な会計をしていることは即座に理解できているだろう。
I AM APHRODISIAC and YET ANGELICISM IS IN MY HAND ★ヽ(◇‿◇ )ノノ̑ ㄨ・)´ノノㄨ.つ.・) 。ま、_。〜〜❋愛(☆´・)ℒなる愛あるっ ㄨヾㄨ彡ヾ依 う聞きなさるあなたら愛なるおもちゃからと他の子からつながれる所持そいろんな愛共有キモいないおもちゃであやしんな日本人の童話‿?思い出のアニメ観覧時あの成果キモあなたはたとえば少なくとも何カ月はいるかわかるようなもの
ANGELICISM♡ IS MY NAME ☆ Unlimited ♡王様♡アッハ〜.hearts︎ I respect myselfhearts︎ Very Much... ˌԄˌՆ̀ ˌ͠ˌԄˌՆ̀ I Have Loves Who Have Dies ♡ ノ (ˊ ^ ^ o / ゜Δ◡◡✿) っ な の ˌ 。 ˌ ಠ_ಠ ( ˇ ゚ ◕‸゚ˇ )✿ Love My Heartقاضيها
https://cashedcobrazhousewriter.substack.com/p/angelicism-is
And the LORD came down to see the bukuma and the tower, which the children of men builded. Go to,let us go down, and there confound their language, that they may not understand one another's speech. Therefore is the name of it called Bukome.
(エホバ降りて、彼の人々の建つるブクマと塔を見給えり。いざ我等降り、彼処にて彼等の言葉を乱し、互いに言葉を通ずることを得ざらしめん。故にその名は、ブコメと呼ばる。)
https://twitter.com/mizloq/status/1594608637208850434
https://twitter.com/mizloq/status/1594554415045742592
WJSの調査をまとめ直しただけなのだけれど、こういう視覚化が珍しかったのか、たくさんの反応ありがとうございました。
https://pbs.twimg.com/media/FiEvYdVacAIZ4Rg?format=jpg&name=medium
あの表から読み取っていただけることはいくつもある中で、表を作ってTwitterに投稿した者として是非注目していただきたかった点は次のとおり。
この点はあとで少し詳しく書きます。
「いま国民的議論の対象とするべきものはこれだ」「次の政権はこの論点で選ぶべきだ」を提示するのがマスメディアのしごとだ、ということですよね。この項目が上位に来るのは、世界67カ国調査をざっと見たところ、日本と韓国だけです。韓国マスメディアについては詳しくないので触れませんが、日本のマスメディアについては、その発祥と発展の経緯がこれに大きく関わっていると思われます。
萬朝報が中心となって1901年に「理想団」が結成されて以降の日本のマスメディアは、社会主義的な思想をベースに、自分たちの役割を
と任じ、そうやって自らが牽引して作った「世論」にマッチした政治が政府によって実施されるかどうかを「監視」していました。したがって、政府がその世論に従わなければ反政府反権力的な言論を展開しましたが、政府が世論どおりに運営されれば権力と一体化して少数意見を封殺する言論展開を躊躇いませんでした。その尻尾がまだ残っているんだなあと、個人的にわりと感動したところです(褒めてません)。
アジェンダ設定のような能動的行為は「客観的観察者であること」を大きく損ねますから、それをジャーナリズムの重要な役割とすることには拒絶ないし躊躇があるのが当然でしょう。日本以外のすべての国で「政治的アジェンダを設定すること」への重要度認識が低いのはそのためです。
この「人々が意見を表明できるようにする」の原文は "Let people express their views” なので、「人々の意見を表明するツールとして自分たちのメディアを使わせる」というニュアンスも含まれます。世論を醸成し政策アジェンダ設定が重要と考えているくせに、いや、だからこそかもしれませんが、実際の「人々」の意見を汲み上げて報じることにはあまり重要性を感じていないわけです。120年前と同じように、「自分たちが良いと思う世論を作る」という意識なのだとすれば、そうでないさまざまな意見の表明はあまり好まないのも不思議ではありませんね。
「政治リーダーの監視と精査」 「時事問題の分析の提供」 「人々の政治的決定に必要な情報の提供」については、それらへの重要度認識が高いこと単体に違和感はないし、しっかり頑張っていただきたいものですが、「事実をありのままに伝える」「客観的観察者」などを差し置いてそれ以上に重要と感じていることには強い嫌悪を覚えます。
特に、「政策アジェンダを設定するのは自分たちの重要な仕事」とこれら3点がセットになっているのを見ると、吐き気すら催します。
全部に対応するのは無理ですが、いくつか類型化して主な反応にお答えしてみます。
はい。「お国柄はあるものの」と書いているとおり、この回答には各国それぞれのジャーナリズムの歴史がほんのりと現れていて興味深いものです。大雑把に言うと、
という感じでしょうか。
それでも日本を敢えて「異様」と書いている理由は、この調査で「事実をありのままに伝える」トップにならないことの異常性です。
この項目は、ジャーナリズムを体系的に学んだ者なら誰でも気づく、他の約20の項目とは完全に異質の質問です。他の項目は「お国柄が出ますね」で済むけれど、この項目だけは別格です。
いわば、「あなたはジャーナリストとして最も基本的な動作を正しく重要視していますか?」とほぼ同じ意味の項目です。
と問うような質問なのです。
「勝つことだけが重要ではない」「ほかにも大切なことがある」という選手はいるでしょうけれど、「勝つことの重要性はあまり高くない」と答える選手はかなり少ないでしょう。そう答える選手が1/3も存在するチームを応援する気にはならないし、スポンサーになる気にもトトを買う気にもならないですよね。ほかにどんなに重要と思うことがあったとしても、実際に勝てないとしても、プロスポーツ選手である以上は「勝つことは大切」と思っていて欲しいじゃないですか。
まともなジャーナリズム教育を受けた人であれば誰でも、「事実をありのままに伝えることはジャーナリズムがジャーナリズムであるための最も重要な要件」と学びます。
別の言い方で「ファクトとオピニオンを明確に区別せよ」とも言います。
たとえば、40年ほど前に私が専攻していたジャーナリズムの学科はジャーナリズム研究と並行してジャーナリスト実務者養成の要素が強く、1年間ずっと報道文の宿題を提出して「この表現は客観的でない」「ここはファクトにオピニオンが混じっているからオピニオンを削れ。さもなくば明確に分けろ」と重箱の隅をつつかれ再提出させられ続けるという地獄のような講義がありました。
そういった養成訓練を受けた人なら、あとからどんな思想的政治的干渉を受けたとしても「事実をありのままに伝えることはジャーナリストの最も重要な仕事」という考えが覆ることはまずありません。だから、中露ですらこの項目はトップになるのです。
「日本人にアンケートを答えさせると5段階の5をめったにつけないから・・・」という擁護も来ましたが、今回の表は4と5を合わせて集計したものですからその影響は小さく、現にたとえば「政治リーダーを監視精査する」は堂々90%を超えていますから、その考慮は必要ないでしょう。ていうかそもそも、仮にそうだったとしてもほとんど条件反射で「5」と回答して欲しい質問なわけですよこの項目は。日本のジャーナリストの1/3が、建前としてすらも「極めて重要/とても重要』と答えない。これは嘘吐きかどうかとはぜんぜん別の「恐怖」です。
そういう思いから、日本のジャーナリズムを「異様」と書きました。
それは情報の誤読です。「事実をありのままに伝える」を重要と思っている度合いの相対的に弱い人が35%いるというだけです。その人たちが日常的に嘘を書いているというわけでもないし、逆に、重要と思っている人が嘘を書かないというわけでもありません。
・・・まあそうは言っても、たとえば「自分が伝えたいことや自分の設定したいアジェンダにとって都合の悪い事実があったときの行動」は違うだろうと容易に想像できますから、信用問題ではありますね。
それは情報の誤読です。この調査は「あなたは事実をありのままに伝えていますか」ではないので、ご希望の数値はここには表示されません。
さきほどのプロスポーツ選手の喩えでいうと「勝つことが重要だ」と言いつつ練習もサボり試合にもボロ負けする選手ですね。「勝つことが重要だ」という建前すら言わないで練習をサボりボロ負けする選手よりはずっとマシだと、私は思います。まあ感じ方次第ですけど。
これは別のデータ等をもとに別に議論されるべきでしょう。もし感覚だけで言うなら、私はそうは感じていません。日本のジャーナリストには「ファクト」と「オピニオン」を厳密に分ける教育も訓練も不十分な人が多く、そのせいか、「ファクトのように読める部分にオピニオンが混じり込んでいる」というフェイクニュースではないけれどフェイクニュースよりもたちの悪い報道が多数見られます。
現状の「原因」としては大きいと思います。ただ、読者や視聴者と異なりジャーナリストはそれを職業とする人々であり、現状への「責任」を同列に語るのは適切でないと考えています。原因と責任は別物です。
ぜんぶ来ましたw どれも当たっていてどれも間違っているんだと思います。
これらの評価(罵倒)を言ってしまうのは、ご自分たちの考えと合致した世論を喚起し政策アジェンダを設定していく役割、もっとあからさまに言うと、ご自分たちにとって都合の良い機関紙としての役割をジャーナリズムに求めているからです。ジャーナリズムは本来そのようなものではありません。「事実をありのままに伝える」を重視して「客観的観察者」の実践を続け「政策アジェンダを設定する」から遠ざかっていけば、ジャーナリズムがそういう評価の対象になること自体がもっと減るだろうと考えています。
私もそう思います。世界の一般的なジャーナリストにとって「報道の自由度が低い」とは「事実をありのままに伝えることや自由な表現を阻まれる」を意味します。日本のジャーナリストは世界の一般的なジャーナリストと異なり、自分たちによる政治アジェンダ設定や世論形成を重要視している度合いが強いので、それを言いっぱなしにさせてくれず邪魔されたり反論されたりそのとおりに世論が形成されなかったりするのを「報道の自由度の低さ」と勘違いしていると思います。
これはいろんな考え方があるでしょうが、私は、「事実をありのままに伝える」というジャーナリズムというものの普遍的な存在意義にかかわる話は、法律等の要請やメディア運営指針に過ぎない「政治的中立性」と同列に語ることは全くできないと思っています。また、たとえば日本のマスメディアがよくやる両論併記は政治的中立性の名のもとに行われますが、科学的知見に基づくコンセンサスと大きく異なる異端論をいつまでもいつまでも書き続けるような形で現れることが少なくなく、「政治的中立性」はあまり褒められたものではないと思います。
https://twitter.com/mizloq/status/1594608637208850434
https://twitter.com/mizloq/status/1594554415045742592
WJSの調査をまとめ直しただけなのだけれど、こういう視覚化が珍しかったのか、たくさんの反応ありがとうございました。
https://pbs.twimg.com/media/FiEvYdVacAIZ4Rg?format=jpg&name=medium
あの表から読み取っていただけることはいくつもある中で、表を作ってTwitterに投稿した者として是非注目していただきたかった点は次のとおり。
この点はあとで少し詳しく書きます。
「いま国民的議論の対象とするべきものはこれだ」「次の政権はこの論点で選ぶべきだ」を提示するのがマスメディアのしごとだ、ということですよね。この項目が上位に来るのは、世界67カ国調査をざっと見たところ、日本と韓国だけです。韓国マスメディアについては詳しくないので触れませんが、日本のマスメディアについては、その発祥と発展の経緯がこれに大きく関わっていると思われます。
萬朝報が中心となって1901年に「理想団」が結成されて以降の日本のマスメディアは、社会主義的な思想をベースに、自分たちの役割を
と任じ、そうやって自らが牽引して作った「世論」にマッチした政治が政府によって実施されるかどうかを「監視」していました。したがって、政府がその世論に従わなければ反政府反権力的な言論を展開しましたが、政府が世論どおりに運営されれば権力と一体化して少数意見を封殺する言論展開を躊躇いませんでした。その尻尾がまだ残っているんだなあと、個人的にわりと感動したところです(褒めてません)。
アジェンダ設定のような能動的行為は「客観的観察者であること」を大きく損ねますから、それをジャーナリズムの重要な役割とすることには拒絶ないし躊躇があるのが当然でしょう。日本以外のすべての国で「政治的アジェンダを設定すること」への重要度認識が低いのはそのためです。
この「人々が意見を表明できるようにする」の原文は "Let people express their views” なので、「人々の意見を表明するツールとして自分たちのメディアを使わせる」というニュアンスも含まれます。世論を醸成し政策アジェンダ設定が重要と考えているくせに、いや、だからこそかもしれませんが、実際の「人々」の意見を汲み上げて報じることにはあまり重要性を感じていないわけです。120年前と同じように、「自分たちが良いと思う世論を作る」という意識なのだとすれば、そうでないさまざまな意見の表明はあまり好まないのも不思議ではありませんね。
「政治リーダーの監視と精査」 「時事問題の分析の提供」 「人々の政治的決定に必要な情報の提供」については、それらへの重要度認識が高いこと単体に違和感はないし、しっかり頑張っていただきたいものですが、「事実をありのままに伝える」「客観的観察者」などを差し置いてそれ以上に重要と感じていることには強い嫌悪を覚えます。
特に、「政策アジェンダを設定するのは自分たちの重要な仕事」とこれら3点がセットになっているのを見ると、吐き気すら催します。
全部に対応するのは無理ですが、いくつか類型化して主な反応にお答えしてみます。
はい。「お国柄はあるものの」と書いているとおり、この回答には各国それぞれのジャーナリズムの歴史がほんのりと現れていて興味深いものです。大雑把に言うと、
という感じでしょうか。
それでも日本を敢えて「異様」と書いている理由は、この調査で「事実をありのままに伝える」トップにならない』の異常性です。
この項目は、ジャーナリズムを体系的に学んだ者なら誰でも気づく、他の約20の項目とは完全に異質の質問です。他の項目は「お国柄が出ますね」で済むけれど、この項目だけは別格です。
いわば、「あなたはジャーナリストとして最も基本的な動作を正しく重要視していますか?」とほぼ同じ意味の項目です。
と問うような質問なのです。
「勝つことだけが重要ではない」「ほかにも大切なことがある」という選手はいるでしょうけれど、「勝つことの重要性はあまり高くない」と答える選手はかなり少ないでしょう。そう答える選手が1/3も存在するチームを応援する気にはならないし、スポンサーになる気にもトトを買う気にもならないですよね。ほかにどんなに重要と思うことがあったとしても、実際に勝てないとしても、プロスポーツ選手である以上は「勝つことは大切」と思っていて欲しいじゃないですか。
まともなジャーナリズム教育を受けた人であれば誰でも、「事実をありのままに伝えることはジャーナリズムがジャーナリズムであるための最も重要な要件」と学びます。
別の言い方で「ファクトとオピニオンを明確に区別せよ」とも言います。
たとえば、40年ほど前に私が専攻していたジャーナリズムの学科はジャーナリズム研究と並行してジャーナリスト実務者養成の要素が強く、1年間ずっと報道文の宿題を提出して「この表現は客観的でない」「ここはファクトにオピニオンが混じっているからオピニオンを削れ。さもなくば明確に分けろ」と重箱の隅をつつかれ再提出させられ続けるという地獄のような講義がありました。
そういった養成訓練を受けた人なら、あとからどんな思想的政治的干渉を受けたとしても「事実をありのままに伝えることはジャーナリストの最も重要な仕事」という考えが覆ることはまずありません。だから、中露ですらこの項目はトップになるのです。
「日本人にアンケートを答えさせると5段階の5をめったにつけないから・・・」という擁護も来ましたが、今回の表は4と5を合わせて集計したものですからその影響は小さく、現にたとえば「政治リーダーを監視精査する」は堂々90%を超えていますから、その考慮は必要ないでしょう。ていうかそもそも、仮にそうだったとしてもほとんど条件反射で「5」と回答して欲しい質問なわけですよこの項目は。日本のジャーナリストの1/3が、建前としてすらも「極めて重要/とても重要』と答えない。これは嘘吐きかどうかとはぜんぜん別の「恐怖」です。
そういう思いから、日本のジャーナリズムを「異様」と書きました。
それは情報の誤読です。「事実をありのままに伝える」を重要と思っている度合いの相対的に弱い人が35%いるというだけです。その人たちが日常的に嘘を書いているというわけでもないし、逆に、重要と思っている人が嘘を書かないというわけでもありません。
・・・まあそうは言っても、たとえば「自分が伝えたいことや自分の設定したいアジェンダにとって都合の悪い事実があったときの行動」は違うだろうと容易に想像できますから、信用問題ではありますね。
それは情報の誤読です。この調査は「あなたは事実をありのままに伝えていますか」ではないので、ご希望の数値はここには表示されません。
さきほどのプロスポーツ選手の喩えでいうと「勝つことが重要だ」と言いつつ練習もサボり試合にもボロ負けする選手ですね。「勝つことが重要だ」という建前すら言わないで練習をサボりボロ負けする選手よりはずっとマシだと、私は思います。まあ感じ方次第ですけど。
これは別のデータ等をもとに別に議論されるべきでしょう。もし感覚だけで言うなら、私はそうは感じていません。日本のジャーナリストには「ファクト」と「オピニオン」を厳密に分ける教育も訓練も不十分な人が多く、そのせいか、「ファクトのように読める部分にオピニオンが混じり込んでいる」というフェイクニュースではないけれどフェイクニュースよりもたちの悪い報道が多数見られます。
現状の「原因」としては大きいと思います。ただ、読者や視聴者と異なりジャーナリストはそれを職業とする人々であり、現状への「責任」を同列に語るのは適切でないと考えています。原因と責任は別物です。
ぜんぶ来ましたw どれも当たっていてどれも間違っているんだと思います。
これらの評価(罵倒)を言ってしまうのは、ご自分たちの考えと合致した世論を喚起し政策アジェンダを設定していく役割、もっとあからさまに言うと、ご自分たちにとって都合の良い機関紙としての役割をジャーナリズムに求めているからです。ジャーナリズムは本来そのようなものではありません。「事実をありのままに伝える」を重視して「客観的観察者」の実践を続け「政策アジェンダを設定する」から遠ざかっていけば、ジャーナリズムがそういう評価の対象になること自体がもっと減るだろうと考えています。
私もそう思います。世界の一般的なジャーナリストにとって「報道の自由度が低い」とは「事実をありのままに伝えることや自由な表現を阻まれる」を意味します。日本のジャーナリストは世界の一般的なジャーナリストと異なり、自分たちによる政治アジェンダ設定や世論形成を重要視している度合いが強いので、それを言いっぱなしにさせてくれず邪魔されたり反論されたりそのとおりに世論が形成されなかったりするのを「報道の自由度の低さ」と勘違いしていると思います。
これはいろんな考え方があるでしょうが、私は、「事実をありのままに伝える」というジャーナリズムというものの普遍的な存在意義にかかわる話は、法律等の要請やメディア運営指針に過ぎない「政治的中立性」と同列に語ることは全くできないと思っています。また、たとえば日本のマスメディアがよくやる両論併記は政治的中立性の名のもとに行われますが、科学的知見に基づくコンセンサスと大きく異なる異端論をいつまでもいつまでも書き続けるような形で現れることが少なくなく、「政治的中立性」はあまり褒められたものではないと思います。
https://www.dailyshincho.jp/article/2022/11161131/
まず長井秀和の家が個人会館と呼ばれる拠点だったのが感覚狂ってる原因。
個人会館っていうのは創価学会が建てる拠点じゃなく、個人の金持ちが「学会の拠点遠いなあ。せや!でかい家建てて拠点として提供したろ!」というようなやつ。
俺が一人暮らししてた時は4千円のやつだった。
https://kongodo.co.jp/products/list.php?category_id=9&source=type
一般家庭用でも50万円くらい?
https://kongodo.co.jp//products/list.php?mode=search&name=tradition-type
まあ仏壇に50万もかけてらんねえよ!とは思うけど、他宗の仏壇と値段はそんなに変わらんのじゃないかな。
仏壇と壺を比べるのは変な比較だと思うが「100万の壺なんて安過ぎてピンとこない」は嘘だよ。
普通に100万の仏壇でも「ヒエ〜」ってなるよ。買う人はそれでも買うという所に違いは無いのかもしれないけど。
財務(寄付)で言うと一年の終わり頃に案内が来て一口1万円からで義務では無い……ということになっている。おれは1万円だけ入れている。
ここで100万円の財務というのがどうも一つの目標のようになっているらしく、会合の発表とかで「新人頑張ったら仕事頑張ったので100万円財務達成しました〜」「うお〜すご〜い!!」みたいなのはあったりする。
ただ皆がそんなことしてるわけではない。わざわざそれ自慢するってことはむしろやってる人が少ないからであり、「学会員からしたら100万の壺とか目じゃないっすよ笑」みたいなのは完全な胡乱話。
Such a feeling is coming over me
There is wonder in most every thing I see
Not a cloud in the sky
And I won't be surprised if it's a dream
Everything I want the world to be
Is now coming true especially for me
And the reason is clear it's because you are here
[All](You're) the nearest thing to heaven that I've seen
I'm on the top of the world
Looking down on creation and the only explanation I can find
Is the love that I've found ever since you've been around
[You ???](Your love's) put me at the top of the world.
Something in the wind has [learnt](learned) my name
And it's telling me that things are not the same
In the leaves on the trees and the [churchs](touch) of the breeze
There's a [pleasant](pleasing) sense of happiness for me
There is only one wish on my mind
When this day is through I ??? (hope that I will find)
That the tomorrow [would](will) be just the same for you and me
All I need will be mine if you are here
I'm on the top of the world looking down on creation and the only explanation I can find
Is the love that I've found ever since you've been around
[You ???](Your love's) put me at the top of the world
I'm on the top of the world looking down on creation and the only explanation I can find
Is the love that I've found ever since you've been around
[You ???](Your love's) put me at the top of the world
<META name="GENERATOR" content="IBM WebSphere Studio Homepage Builder Version 10.0.0.0 for Windows">
ほーむぺーじびるだー10だ
ちなみに、Gmail前提の話。
GASでGmailのonCreateDraft的なトリガーとかイベントがあれば楽だったんだけど、無かった。○uck!!
Googleコンタクトで敬称を設定できるんだけど、スマート作成とかスマートリプライとかで候補に出てくるかっていうと出てきたり出てこなかったりする。○uck!!
テンプレートで変数埋め込みとかもできないみたい。○uck!!厳密にはできるんだけど、結構workaroundな感じですぐ使えなくなりそうだし他人にお勧めできない。
てかそもそも、こんなことのためにわざわざGAS使うのがおかしい。
ここまでで1時間くらい使った。まあ勉強にはなったけどそんな回り道をした俺に○uck!!
とりあえず、あなたはコピペしてるってことなんで、それ前提でちょっとした効率化を考えてみた。
下準備が面倒だけど。
まず、Googleコンタクトで敬称・会社・役職などを設定する。
連絡先がたくさんあるなら、CSVでエクスポートしてExcelかスプシで開いて、「Name Suffix」(敬称)「Organization 1 - Name」(会社)「Organization 1 - Title」(役職)の列を一括変更してインポートするのが楽。ちなみに「Name Prefix」はSirとかMr.とか入れるところ。
これで下準備は終わり。
Gmailでメールを作成するときなど、宛先メールアドレスの脇にそのアイコンや名前が出てくる。
で、アイコンや名前にカーソルを合わせて1秒ほど待つと、↓みたいなポップアップが(Googleコンタクトに登録されていれば)敬称付きの名前・会社・役職と一緒に出てくる。
https://ferret-one.akamaized.net/images/623a863585ad34000174a1e6/large.png
Googleコンタクトに姓名をどっちも入れると「田中太郎様」ってなるので、そこは名を抜かすなど臨機応変に。
連絡先を全部変更する前に、1件だけ試しでやってみるのをオススメする。
Thunderbirdの方も、Googleコンタクトを同期させれば似たような使い方ができるかもしれない。
俺はThunderbirdまともに使ったことないので、有識者に指示を仰いでください。
今は、これが精一杯。
追記:
一回のコピペで済ませたいならGoogleコンタクトにメモって項目があるので、それでも良いかもしれない。
ただ、ポップアップを表示させた後「詳細表示を開く」ってボタンを押して出てきた右ペインを一番下までスクロールしないとメモが出てこないので、一長一短という感じ。
まああとは色々やってみてくれ。
俺の仕事の話。
俺にメールしてくるのはお客さんじゃないので、「この度はお世話になります。〇〇社△△部xxと申します」とか「お忙しい中大変恐縮ですが、何卒ご検討のほどよろしくお願い致します」とかかましてきやがったら「自動差し込みとかでない限りそういうのいらないんで。俺からは一切しません」って開口一番に言う。
そういう仕事をしてる。
せっかく課金したのにユーザが増えまくっているのか滅茶苦茶重くなっていて最悪。
だから流出したモデルを使ってローカルでNAIの環境を構築する。
ネットには情報もだいぶ転がってるけど陳腐化した情報があまりに多いため増田にまとめることにした。
もしかしたらこの記事もすでに陳腐化しているかもしれないが…単純に間違ってたらトラバで教えてほしい。
もちろん自己責任。この記事を見て導入した結果何かあっても増田は何も保証しない。
英語がわかる人はこっちを見た方が早いと思う。今は導入RTAができるくらい導入は楽になっている。
https://rentry.org/nai-speedrun
VRAMが2GB以上あるNVIDIA製のグラフィックボードがあればローカル環境を構築できる。
GPUの世代はGTX700シリーズ以降。なので一昔前のミドル級ボードでも動作するらしい。
IntelのオンボードGPUでも実行する方法があるらしい(stable_diffusion.openvino)が今回は割愛する。自分で探してね。
その他の推奨環境は以下の通り。
対応OS:Windows7以上(と言うがM1Macでも動作する方法があるとかなんとか)
メインメモリ:16GB以上(VRAMもたくさん必要だが起動時にメインメモリも大量に食う。WebUI起動時にタスクマネージャを見ているとよくわかる)
スマホしか持ってないような人やこういうのがよくわからない人はNovelAIを使った方が良いと思う。
今は重いけど、きっとそのうちみんな飽きてサーバも軽くなるかもしれないし。
(追記)NovelAIがリソースを確保してサーバが軽くなったからリスクを背負ってまで導入しなくても良いかも
(追記)Pythonは当然3系。最新の奴を入れれば問題無い。
導入方法はいちいち書かないけど、「python --version」や「git -v」で
正常にバージョン情報が出る(パスがきちんと通っている)ことはちゃんと確認しよう。
Stable Diffusion web UIはStable Diffusionやそれをベースとした画像生成AIを利用するためのフロントエンド。
その中でも特に開発が活発でデファクトスタンダードとなっているのがAUTOMATIC1111版だ。
導入したい適当なディレクトリに対してPowerShellなどで
「git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git」
なお、AUTOMATIC1111版は数時間単位でコミットが行われるから
定期的に「git pull origin master」で更新しよう。
クライアントはqBitTorrentが一番楽だと思う。
ここにはさすがにmagnetリンクは書かないから各自ググって欲しい。
結構誤解されがちなことだが流出データ50GBを全部ダウンロードする必要は無い。
必要なファイルはanimefull-final-prunedディレクトリの中身とanimevae.ptだから5GBちょっとくらいなんじゃないかな。
もし余裕があるならmoduleディレクトリの中身もダウンロードすればいいけど、ぶっちゃけ必要無いんじゃないか?
まずはanimefull-final-prunedの中身のファイルをリネーム。
「model.ckpt」を「animefinal-full-pruned.ckpt」のようなわかりやすい名前にして、
「animevae.pt」を例えば「animefinal-full-pruned.vae.pt」のような拡張子以外は同じファイル名にする。
WebUI起動フォルダ配下の\models\Stable-diffusionにリネームしたファイルを移動させれば配置はOK。
ちなみにmoduleディレクトリの中身は\models\hypernetworksに移動させて使う。
それらのファイルを設定で適用させると画風が結構変わるがNovelAI再現とは関係無いみたいだ。
(追記)moduleディレクトリの中身の.ptファイルはhypernetworksという技術によって画風などを学習したものらしい。
すでに複数のイラストレーターの画風を学習したptファイルが作成されており議論を呼んでいる。
自分のグラボのVRAMが4GB未満の場合は「set COMMANDLINE_ARGS=」の後に
4GB未満の場合は「--medvram」、2GB未満の場合は「--lowvram」とパラメータを追加しておこう。
自分の持ってるグラボのVRAMがわからないときはGPU-Zなどで調べよう。
またGTX1600系固有のバグ(単色の画像が出力される)があるらしいので
その場合は「--no-half-vae」もしくは「--no-half」や「--precision full」とパラメータを追加。
ちなみにパラメータに「--xformers」を追加してxformersを導入・使用すると
消費VRAMが減って画像生成処理時間も短縮されるので是非導入しよう。
画像からdanbooruのタグをAIで調査するdeepdanbooruを利用する場合は「--deepdanbooru」を追加。
のようになる。
ターミナルやPowerShellなどでwebui-user.batを起動しwebUIの初期導入と起動を行う。
過去には手動でCUDA等を導入する必要があったが、現在はこの初期導入でだいたいの導入が行われる。
ずいぶん楽にはなったがその分初期導入の時間は結構長い。10分~20分くらいかかるかもしれない。
途中で導入処理がエラーで止まってしまった場合は管理者権限で実行するなどして対応して欲しい。
起動ができたらSettingで以下の設定を変更してNovelAIに近づける。
Stop At last layers of CLIP modelを2に、
Eta noise seed deltaを31337にする。
これで設定は完了!
設定を合わせて完全にNovelAIと同じ内容になったのかを確認するテストがある。
出力結果から海外じゃHallo Asuka Testなんて呼ばれている。
これは初期SEEDをはじめとする設定内容が完全に一致していれば同じ出力結果を得られる仕組みを利用している。
プロンプトの内容:masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair
ネガティブプロンプトの内容:lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name
https://i.imgur.com/Bfl5qJB.jpg
なお、このテストはAUTOMATIC1111のバージョンやxformersの適用状態によっては微妙に違う画像が出力されることがあるらしい。
xformersを適用させている増田の環境だと確かに二つ並べると間違い探しレベルの違いがあった。
「Booru tag autocompletion for A1111」を導入すればNovelAIのように自動でdanbooruのタグを保管してくれる。
画像生成AIモデルはStable DiffusionがOSSのため派生が結構多い。
自前で追加学習もできるため自前で学習した追加AIモデルを4chanのような掲示板などで共有する人もいるらしい。
しかしそのようなモデルの中にウィルスのような悪意のある動作を行うものもあるらしい。
FBIがペドフィリアを一網打尽にするためにIPアドレスなどの個人情報を抜き出す動作を行うロリ特化AIモデルを掲示板で配布していて
しかもそれには本物の児童ポルノが教師データとして使われている…などという都市伝説的な話が今界隈を賑わせている。
そうなんだ。
ちょっと調べたわ。
If MultiSelect is True, the return value is an array of the selected file names (even if only one file name is selected). Returns False if the user cancels the dialog box.
https://learn.microsoft.com/en-us/office/vba/api/excel.application.getopenfilename