はてなキーワード: modelとは
人間がテキストを3000文字読んでも内容を覚えていられるのは、テキストを覚えているわけではなく、テキストから得られる意味を覚えている。
llmにその能力はない。なぜならテキストの連鎖という仕組みであって、脳の模倣ではないから。
情報の一側面を見て特徴を写し取っているに過ぎない。
それはaの文章からbに該当する単語cを取ってくることには向いているが、dの文章からe,f,g...の意味を感得してそれぞれの関係を考慮しつつ新たな言論θを作れというタスクには全く向いていない。h,i,jを吐き出して終わり。出力トークンにも制限があるし。
llmはあくまでもlarge language modelでしかない。人間の情報処理活動にはlanguage以外のものがあるが、それをさせようとしてほうぼうの人間が勝手に失望している。
import numpy as np import matplotlib.pyplot as plt # パラメータ設定 num_agents = 100 # エージェント数 time_steps = 100 # シミュレーションの時間ステップ alpha = 0.1 # 情報共有の効果 beta = 0.05 # 情報拡散の効果 # エージェントの初期状態をランダムに設定 states = np.random.rand(num_agents) # 平均場の初期化 mean_field = np.mean(states) # 状態の履歴を保存 state_history = np.zeros((time_steps, num_agents)) mean_field_history = np.zeros(time_steps) # シミュレーション開始 for t in range(time_steps): # 各エージェントの行動を決定(情報を共有するかどうか) actions = np.random.rand(num_agents) < alpha # 状態の更新 states += beta * (mean_field - states) * actions # 平均場の更新 mean_field = np.mean(states) # 履歴の保存 state_history[t] = states mean_field_history[t] = mean_field # 結果のプロット plt.figure(figsize=(12, 6)) plt.plot(mean_field_history, label='Mean Field') plt.xlabel('Time Step') plt.ylabel('Mean Field Value') plt.title('Mean Field Dynamics in Social Media Model') plt.legend() plt.show()
Ωを仮に100次元の実ベクトル空間R^100とする。各次元は特定の神経活動パターンに対応する。
Ω = {ω ∈ R^100 | ||ω||₂ ≤ 1}
ここで||・||₂はユークリッドノルムである。τは標準的なユークリッド位相とする。
O : Ω → Ω
O(ω) = Aω / ||Aω||₂
ここでAは100×100の実行列で、||Aω||₂ ≠ 0とする。
S[ω] = -∫Ω p(x) log p(x) dx
S[O(ω)] ≤ S[ω] + log(det(AA^T))
dω/dt = F(ω) + G(ω, O)
F(ω) = -αω + β tanh(Wω)
G(ω, O) = γ(O(ω) - ω)
ここでα, β, γは正の定数、Wは100×100の重み行列、tanhは要素ごとの双曲線正接関数である。
g_ij(ω) = E[(∂log p(x|ω)/∂ω_i)(∂log p(x|ω)/∂ω_j)]
ここでE[・]は期待値、p(x|ω)は状態ωでの条件付き確率密度関数である。
ψ(x) = √(p(x)) exp(iθ(x))
Φ[ω] = min_π (I(X;Y) - I(X_π;Y_π))
ここでI(X;Y)は相互情報量、πは可能な分割、X_πとY_πは分割後の変数である。
勾配降下法を用いて定式化する:
ω_new = ω_old - η ∇L(ω_old, O)
L(ω, O) = ||O(ω) - ω_target||₂²
G = (V, E)
V = {v_1, ..., v_100}
E ⊆ V × V
各頂点v_iはω_iに対応し、辺(v_i, v_j)はω_iからω_jへの因果関係を表す。
このモデルはPythonとNumPyを用いて以下のように実装できる:
import numpy as np from scipy.stats import entropy from scipy.integrate import odeint import matplotlib.pyplot as plt class ConsciousnessModel: def __init__(self, dim=100): self.dim = dim self.omega = np.random.rand(dim) self.omega /= np.linalg.norm(self.omega) self.A = np.random.rand(dim, dim) self.W = np.random.rand(dim, dim) self.alpha = 0.1 self.beta = 1.0 self.gamma = 0.5 self.eta = 0.01 def observe(self, omega): result = self.A @ omega return result / np.linalg.norm(result) def entropy(self, omega): p = np.abs(omega) / np.sum(np.abs(omega)) return entropy(p) def dynamics(self, omega, t): F = -self.alpha * omega + self.beta * np.tanh(self.W @ omega) G = self.gamma * (self.observe(omega) - omega) return F + G def update(self, target): def loss(o): return np.linalg.norm(self.observe(o) - target)**2 grad = np.zeros_like(self.omega) epsilon = 1e-8 for i in range(self.dim): e = np.zeros(self.dim) e[i] = epsilon grad[i] = (loss(self.omega + e) - loss(self.omega - e)) / (2 * epsilon) self.omega -= self.eta * grad self.omega /= np.linalg.norm(self.omega) def integrated_information(self, omega): def mutual_info(x, y): p_x = np.abs(x) / np.sum(np.abs(x)) p_y = np.abs(y) / np.sum(np.abs(y)) p_xy = np.abs(np.concatenate([x, y])) / np.sum(np.abs(np.concatenate([x, y]))) return entropy(p_x) + entropy(p_y) - entropy(p_xy) total_info = mutual_info(omega[:self.dim//2], omega[self.dim//2:]) min_info = float('inf') for i in range(1, self.dim): partition_info = mutual_info(omega[:i], omega[i:]) min_info = min(min_info, partition_info) return total_info - min_info def causal_structure(self): threshold = 0.1 return (np.abs(self.W) > threshold).astype(int) def run_simulation(self, steps=1000, dt=0.01): t = np.linspace(0, steps*dt, steps) solution = odeint(self.dynamics, self.omega, t) self.omega = solution[-1] self.omega /= np.linalg.norm(self.omega) return solution def quantum_state(self): phase = np.random.rand(self.dim) * 2 * np.pi return np.sqrt(np.abs(self.omega)) * np.exp(1j * phase) # モデルの使用例 model = ConsciousnessModel(dim=100) # シミュレーション実行 trajectory = model.run_simulation(steps=10000, dt=0.01) # 最終状態の表示 print("Final state:", model.omega) # エントロピーの計算 print("Entropy:", model.entropy(model.omega)) # 統合情報量の計算 phi = model.integrated_information(model.omega) print("Integrated Information:", phi) # 因果構造の取得 causal_matrix = model.causal_structure() print("Causal Structure:") print(causal_matrix) # 観測の実行 observed_state = model.observe(model.omega) print("Observed state:", observed_state) # 学習の実行 target_state = np.random.rand(model.dim) target_state /= np.linalg.norm(target_state) model.update(target_state) print("Updated state:", model.omega) # 量子状態の生成 quantum_state = model.quantum_state() print("Quantum state:", quantum_state) # 時間発展の可視化 plt.figure(figsize=(12, 6)) plt.plot(trajectory[:, :5]) # 最初の5次元のみプロット plt.title("Time Evolution of Consciousness State") plt.xlabel("Time Step") plt.ylabel("State Value") plt.legend([f"Dim {i+1}" for i in range(5)]) plt.show()
そう思いますね。嘘が常態化している自己愛性パーソナリティ障害の人の手助けは、プロにしかできない
そもそも直球で『テロリスト』とか『引きこもり』とかの背景要因になり得るとかそういう視点の研究がバンバン出てくるので
https://www.elemy.com/studio/mood-disorders/autism-and-narcissism/
http://usir.salford.ac.uk/id/eprint/40449/1/Faccini%20%26%20Allely%20%282016%29.%20.pdf
正直者は損をするとかいうけれど、やはり嘘を付かない誠実さは美徳というか、集団生活を送る上での最低限の条件に思う
自己愛性パーソナリティ障害の人の手助けは、プロにしかできないが、
いくらなんでも、お前は他人に何よりも自分自身に嘘をつきすぎだと自覚させることくらいはできるでしょ
そもそも直球で『テロリスト』とか『引きこもり』とかの背景要因になり得るとかそういう視点の研究がバンバン出てくるので
https://www.elemy.com/studio/mood-disorders/autism-and-narcissism/
http://usir.salford.ac.uk/id/eprint/40449/1/Faccini%20%26%20Allely%20%282016%29.%20.pdf
正直者は損をするとかいうけれど、やはり嘘を付かない誠実さは美徳というか、集団生活を送る上での最低限の条件に思う
Meta: pinup
A genre of art harking back as far as the 1890s, consisting of a simple posed model. The model in question can be clothed or nude, but generally expresses sexuality without hammering it into the viewer's face. Typically, the model is looking at the camera (e.g. the "viewer") or slightly off-camera.
As a general rule, the background should not distract from the main subject in the post. With the exception of themed pinups (such as sports or beach), the background is usually plain, blurred, or sparse so as not to distract attention away from the main subject.
あのさぁ、君ANNを実装したライブラリとか使ったことないでしょ、faissとかElasticsearchとか
君は「KNN」と勘違いしてるみたいだけど、sklearn起動してmodel.fit(X, y)みたいなことをするんじゃないんだよ、ANNは
index.add(vectors)とかやってインデクシングした上で、index.search(vq, k)みたいにベクトルで検索するのがANNね
レコメンデーションエンジンなら、コンテンツをベクトルに変換して、インデクシングして、クエリベクトルでサーチするって話
コンテンツ集合Xがあります。各々の要素x∈ Xは特徴量f_1(x)∈Y_1 を持っています。
同様にユーザーu ∈ Uが存在し、特徴量f_2(u)∈Y_2を持っています。
コンテンツには単価P(x)が存在し、ユーザーuがコンテンツをm回消費することをg(u, x, m)=m*P(x)_uで表し、全てのユーザーU, 全てのコンテンツXに対して行列M∘P = g(U, X, M) が存在します。
回答
この問題は、コンテンツとユーザーの特徴量を考慮して、ユーザーがコンテンツを消費する回数を最大化するものです。このような問題は、推薦システムの分野で広く研究されており、協調フィルタリングと呼ばれるアプローチが一般的に使われています。
協調フィルタリングアルゴリズム
協調フィルタリングには、以下のようなアルゴリズムが考えられます。
1. 行列因子分解 (Matrix Factorization)
行列因子分解は、ユーザー・コンテンツ行列を低ランク近似することで、ユーザーとコンテンツの潜在的な特徴を抽出します。具体的には、ユーザー行列Uとコンテンツ行列Vを求め、その内積U^TVで元の行列を近似します。この手法は、Netflix Prizeで優れた成績を収めました。[1]
2. ニューラルコラボレーティブフィルタリング (Neural Collaborative Filtering)
ニューラルネットワークを用いて、ユーザーとコンテンツの非線形な関係を学習します。入力としてユーザーIDとコンテンツIDを与え、出力として評価値を予測します。この手法は、従来の行列因子分解よりも高い精度が期待できます。[2]
3. 階層的ベイズモデル (Hierarchical Bayesian Model)
ユーザーとコンテンツの特徴量を階層ベイズモデルに組み込むことで、より柔軟なモデリングが可能になります。この手法は、Cold-Start問題(新規ユーザー・コンテンツの推薦が困難)の解決に有効です。[3]
4. 強化学習 (Reinforcement Learning)
ユーザーの行動履歴を環境として捉え、報酬最大化のためのアクションを学習します。この手法は、長期的な利益最大化に適しています。[4]
これらのアルゴリズムは、ユーザーとコンテンツの特徴量を考慮しながら、目的関数を最大化するように設計されています。実装の際は、データセットの特性やモデルの複雑さ、計算リソースなどを考慮する必要があります。[5]
Citations:
[1] https://aicontentfy.com/en/blog/understanding-algorithms-behind-content-distribution
[2] https://marketbrew.ai/optimizing-your-websites-content-with-genetic-programming
[3] https://sproutsocial.com/insights/social-media-algorithms/
[4] https://surferseo.com/blog/the-new-algorithm-for-content-analysis/
[5] https://www.linkedin.com/advice/0/what-best-ways-measure-content-relevance-x6apf
この手順は、Latent Diffusion Modelsを使用してテキストから画像を生成するための一般的なアプローチを示していますが、いくつかの誤りや欠落がある可能性があります。以下にいくつかの修正と補足を示します。
1. **ライブラリのインポート**: `diffusers` ライブラリは存在しないため、代わりに `torch`、`transformers`、および `diffusion` ライブラリを使用する必要があります。
```python
import torch
from transformers import AutoModelForSeq2SeqLM, AutoTokenizer
from diffusion import LatentDiffusion
```
2. **環境のセットアップ**: 事前学習済みモデルとトークナイザーを使用する前に、必要なモデルとトークナイザーをダウンロードする必要があります。
```python
model = AutoModelForSeq2SeqLM.from_pretrained("nlptown/bert-base-multilingual-uncased-finetuned-xnli")
tokenizer = AutoTokenizer.from_pretrained("nlptown/bert-base-multilingual-uncased-finetuned-xnli")
```
3. **テキストプロンプトの前処理**: `encode_plus` メソッドを使用して、入力をトークン化し、テンソルに変換します。
```python
inputs = tokenizer.encode_plus(prompt, return_tensors="pt")
```
4. **Latent Diffusion モデルの定義**: `diffusion` ライブラリから `LatentDiffusion` をインスタンス化する際に、モデルとトークナイザーを渡します。
```python
ldm = LatentDiffusion(model=model, tokenizer=tokenizer)
```
5. **画像の生成**: `generate` メソッドを使用して画像を生成します。
```python
image = ldm.generate(inputs)
```
6. **生成された画像の可視化**: 画像を表示するために適切なライブラリを使用します。例えば、Matplotlibを使用して画像を表示できます。
```python
import matplotlib.pyplot as plt
plt.show()
```
As a student navigating the complexities of engineering coursework, I found myself grappling with Simulink assignments and think who will help me to complete my Simulink assignment that seemed to be from another dimension. The intricacies of Simulink, a powerful simulation and modeling tool, left me feeling overwhelmed and lost. That's when I stumbled upon a game-changer – Simulink Assignment Help from https://www.matlabassignmentexperts.com/simulink-assignment-help.html. In this testimonial blog, I want to share my transformative experience with their services, detailing how they not only helped me conquer Simulink challenges but also enhanced my overall understanding of this intricate subject.
Discovering the Simulink Assignment Help Lifeline
My journey with MatlabAssignmentExperts.com began when I was at a crossroads with my Simulink assignments. The complexities of the software, coupled with the pressure of academic deadlines, had me seeking a reliable source of assistance. A quick online search led me to their website, and the promising testimonials from fellow students who had successfully navigated Simulink assignments with their help convinced me to give it a shot.
From the very first paragraph of our interaction, it was evident that MatlabAssignmentExperts.com was different. The Simulink Assignment Help they offered was not just a transaction; it was a collaborative effort to ensure I not only completed my assignments but also understood the underlying concepts.
The Expert Guidance that Made a Difference
One of the standout features of MatlabAssignmentExperts.com is their team of experts. The individuals assigned to help me with my Simulink assignments were not just knowledgeable but also passionate about the subject. Their commitment to providing comprehensive assistance was evident in the personalized approach they took towards my assignments.
The experts patiently walked me through each step of the Simulink modeling process, explaining the rationale behind every decision. This hands-on learning experience was invaluable, as it not only resulted in impeccably solved assignments but also enhanced my proficiency in using Simulink for future projects.
Tailored Solutions for Varied Simulink Topics
Simulink is a vast field with applications in numerous engineering disciplines. What impressed me most about MatlabAssignmentExperts.com was their ability to cater to a wide array of Simulink topics. Whether it was control systems, signal processing, or model-based design, their experts exhibited a depth of knowledge that extended beyond mere problem-solving.
The assignments I brought to them were met with a comprehensive understanding of the underlying principles, leading to solutions that were not only correct but also insightful. This versatility instilled confidence in me, knowing that regardless of the Simulink topic, MatlabAssignmentExperts.com had the expertise to guide me through.
Timely Assistance in the Nick of Time
Academic deadlines are the sword of Damocles for every student. MatlabAssignmentExperts.com understands this reality and takes pride in delivering solutions within the stipulated time frames. My Simulink assignments, often accompanied by tight deadlines, were met with a prompt and efficient response from their team.
The timely assistance not only saved me from the stress of last-minute submissions but also allowed me to review the solutions thoroughly. This attention to deadlines showcased MatlabAssignmentExperts.com's commitment to the success of their clients and solidified my trust in their services.
Affordable Excellence – Breaking the Myth
The affordability of Simulink Assignment Help from MatlabAssignmentExperts.com pleasantly surprised me. There is a common misconception that quality assistance comes at a hefty price. However, this platform shattered that myth by offering top-notch services at reasonable rates.
As a student with budget constraints, the cost-effectiveness of their services allowed me to access expert guidance without burning a hole in my pocket. This accessibility to quality assistance further solidified my belief that MatlabAssignmentExperts.com is not just a service provider but a partner in academic success.
A Learning Journey, Not Just a Service
What sets MatlabAssignmentExperts.com apart is their commitment to fostering a learning experience. Simulink Assignment Help wasn't just about getting the correct answers; it was about understanding the "why" behind each step. The insights gained from their experts went beyond the immediate requirements of my assignments and translated into a broader comprehension of Simulink.
MatlabAssignmentExperts.com transformed my perception of Simulink from an intimidating subject to a tool I could wield with confidence. Their approach was not to merely complete assignments but to empower students to tackle similar challenges independently.
Conclusion – A Grateful Student's Reflection
In conclusion, my journey with Simulink Assignment Help from MatlabAssignmentExperts.com has been nothing short of transformative. From the first perplexing assignment to mastering the nuances of Simulink, their expert guidance has been the cornerstone of my academic success.
If you find yourself navigating the intricate world of Simulink assignments, I wholeheartedly recommend MatlabAssignmentExperts.com. They go beyond being a service provider – they are mentors, guides, and partners in your academic journey. With their assistance, you not only overcome immediate challenges but also equip yourself with the knowledge and skills to excel in your engineering endeavors. Trust me; your academic success with Simulink is just a click away!
As a student navigating the complexities of engineering coursework, I found myself grappling with Simulink assignments and think who will help me to complete my Simulink assignment that seemed to be from another dimension. The intricacies of Simulink, a powerful simulation and modeling tool, left me feeling overwhelmed and lost. That's when I stumbled upon a game-changer – Simulink Assignment Help from https://www.matlabassignmentexperts.com/simulink-assignment-help.html. In this testimonial blog, I want to share my transformative experience with their services, detailing how they not only helped me conquer Simulink challenges but also enhanced my overall understanding of this intricate subject.
Discovering the Simulink Assignment Help Lifeline
My journey with MatlabAssignmentExperts.com began when I was at a crossroads with my Simulink assignments. The complexities of the software, coupled with the pressure of academic deadlines, had me seeking a reliable source of assistance. A quick online search led me to their website, and the promising testimonials from fellow students who had successfully navigated Simulink assignments with their help convinced me to give it a shot.
From the very first paragraph of our interaction, it was evident that MatlabAssignmentExperts.com was different. The Simulink Assignment Help they offered was not just a transaction; it was a collaborative effort to ensure I not only completed my assignments but also understood the underlying concepts.
The Expert Guidance that Made a Difference
One of the standout features of MatlabAssignmentExperts.com is their team of experts. The individuals assigned to help me with my Simulink assignments were not just knowledgeable but also passionate about the subject. Their commitment to providing comprehensive assistance was evident in the personalized approach they took towards my assignments.
The experts patiently walked me through each step of the Simulink modeling process, explaining the rationale behind every decision. This hands-on learning experience was invaluable, as it not only resulted in impeccably solved assignments but also enhanced my proficiency in using Simulink for future projects.
Tailored Solutions for Varied Simulink Topics
Simulink is a vast field with applications in numerous engineering disciplines. What impressed me most about MatlabAssignmentExperts.com was their ability to cater to a wide array of Simulink topics. Whether it was control systems, signal processing, or model-based design, their experts exhibited a depth of knowledge that extended beyond mere problem-solving.
The assignments I brought to them were met with a comprehensive understanding of the underlying principles, leading to solutions that were not only correct but also insightful. This versatility instilled confidence in me, knowing that regardless of the Simulink topic, MatlabAssignmentExperts.com had the expertise to guide me through.
Timely Assistance in the Nick of Time
Academic deadlines are the sword of Damocles for every student. MatlabAssignmentExperts.com understands this reality and takes pride in delivering solutions within the stipulated time frames. My Simulink assignments, often accompanied by tight deadlines, were met with a prompt and efficient response from their team.
The timely assistance not only saved me from the stress of last-minute submissions but also allowed me to review the solutions thoroughly. This attention to deadlines showcased MatlabAssignmentExperts.com's commitment to the success of their clients and solidified my trust in their services.
Affordable Excellence – Breaking the Myth
The affordability of Simulink Assignment Help from MatlabAssignmentExperts.com pleasantly surprised me. There is a common misconception that quality assistance comes at a hefty price. However, this platform shattered that myth by offering top-notch services at reasonable rates.
As a student with budget constraints, the cost-effectiveness of their services allowed me to access expert guidance without burning a hole in my pocket. This accessibility to quality assistance further solidified my belief that MatlabAssignmentExperts.com is not just a service provider but a partner in academic success.
A Learning Journey, Not Just a Service
What sets MatlabAssignmentExperts.com apart is their commitment to fostering a learning experience. Simulink Assignment Help wasn't just about getting the correct answers; it was about understanding the "why" behind each step. The insights gained from their experts went beyond the immediate requirements of my assignments and translated into a broader comprehension of Simulink.
MatlabAssignmentExperts.com transformed my perception of Simulink from an intimidating subject to a tool I could wield with confidence. Their approach was not to merely complete assignments but to empower students to tackle similar challenges independently.
Conclusion – A Grateful Student's Reflection
In conclusion, my journey with Simulink Assignment Help from MatlabAssignmentExperts.com has been nothing short of transformative. From the first perplexing assignment to mastering the nuances of Simulink, their expert guidance has been the cornerstone of my academic success.
If you find yourself navigating the intricate world of Simulink assignments, I wholeheartedly recommend MatlabAssignmentExperts.com. They go beyond being a service provider – they are mentors, guides, and partners in your academic journey. With their assistance, you not only overcome immediate challenges but also equip yourself with the knowledge and skills to excel in your engineering endeavors. Trust me; your academic success with Simulink is just a click away!
っていうポストを、イーロン・マスクがリポストし、テスラチームを賞賛してる
https://twitter.com/elonmusk/status/1744493296150286830?t=aECJKmXKGdJfs-POAwinaw&s=19
これ、ソースあるの?
ちなみに11月までの販売台数に関するニュースでは、ガソリン車のトヨタ・カローラが101万台売れたのに対し、EVのテスラ・モデルYが106万台でトップ。
Model Y -up 3 spots- with 1.06 million units sold (+57.1%).
Second place is in the hands of previous year’s leader the Toyota Corolla, with current YTD sales at 1.01 million up 0.7% from the previous year.
The Toyota RAV4 falls 1 spot into 3rd reporting 819,780 cumulative sales, up 3.6% from the sales period last year
ChatGPT is fine-tuned from GPT-3.5, a language model trained to produce text.
OpenAI ChatGPT is a language model developed by OpenAI that is built on the GPT (Generative Pre-trained Transformer) architecture.
https://dzone.com/articles/comprehensive-guide-on-integrating-openai-chatgpt
サム・アルトマン氏の突然の解任理由は、当事者からはしばらく明かされないことははっきりした。
https://www.theverge.com/2023/11/29/23982046/sam-altman-interview-openai-ceo-rehired このインタビューにおいて、サムアルトマン氏の解任理由を明かさないという姿勢は明確である。
ではなぜ、解任の理由を明かさないか、という理由をまず考えたい。
まず一般論として、何か物事・事件が起こった場合、それをどこまで公表するかは、関係者の中で一番権力がある人が決める。
ある会社内で重大な事件が起こったら、通常はその会社の社長が公表する内容を確認して決めるようなもの。
今回の関係者の中で一番権力を持っているのはマイクロソフトである。なぜならOpenAIの開発資金を提供し、かつ開発基盤のシステムまで提供しているから。
表題の一番の理由はこれである。つまり関係者の中で一番権力のあるマイクロソフトが、サム・アルトマン氏の本当の解任理由の公表は都合が悪いため、公表を止めていると自分は考えている。
ではなぜマイクロソフトにとって、解任理由の公表は都合が悪いか?
Microsoftが、来年リリースされると噂されているGPT-5が使えなくなる可能性がある為、というのが自分の考えである。
なぜ使えなくなる可能性があるかというと、GPT-5が、世間にAGIとみなされる可能性がある為。
OpenAI社のWikipediaによると「汎用人工知能が完成した際は、それを営利法人や他社にライセンス提供はしない規約となっていて、汎用人工知能実現前の人工知能のみを営利法人に提供することとなっている」、つまり、現状の規約だと、GPT-5がAGIを達成している場合、Microsoftは使用できない。
MicrosoftがGPT-5やそれ以降のGPTを使えなくなれば、Googleなどの競合他社にその内負けるのは明らかである。
ではなぜ、解任理由の公表をすると、GPT-5が使えなくなるのだろうか?
なぜなら解任のきちんと理由を説明する際に、GPT-5がAGI(もしくはそれに近い状態)であることを説明しなければいけない為である。
一部報道(リーク)では、OpenAI社のAIは、人類を脅かす可能性があるほどに賢くなっている。
※ OpenAI researchers warned board of AI breakthrough ahead of CEO ouster, sources say
※ 記事中のAI Breakthroughである Q*(Q star) を独自の解釈で解説している動画の一つ https://www.youtube.com/watch?v=3d0kk88IE8c
かつサム・アルトマン氏は、このリークを否定せず、肯定に近い発言をした。
https://www.theverge.com/2023/11/29/23982046/sam-altman-interview-openai-ceo-rehired
「No particular comment on that unfortunate leak」(「不運なリークに関してコメントはありません」)。
もし間違いであれば、間違いであるというコメントをするはずである。
かつ最近、サム・アルトマン氏は、来年発表されるモデルはどうなるかと質問された時、以下のような発言をしている。
https://www.youtube.com/watch?v=ZFFvqRemDv8 50分40秒頃より
"The model capability will have taken such a leap forward that no one expected.”
「モデルの能力は、誰も予想しなかったほどの飛躍を遂げるだろう」
この文章における「モデル」とは、GPT-5と考えてよいだろう。
つまり、GPT-5はAGIにかなり近いか、AGIを達成できている可能性がある。
これ以降は全くの想像になるが、恐らくサム・アルトマン氏は、そのAGIに近いGPT-5を、Microsoftに提供しようとしたのではないか。
また取締役会は、その為にサム・アルトマン氏を解任したのではないか。
営利企業にAGIを渡したら、まずそれを使ってどうお金儲けをするかを第一に考えるだろう。
よって、Microsoftへの提供の前に、GPT-5の性能や危険性などについて、厳密な検証をしなければいけない。
その辺に関して、取締役会とサム・アルトマン氏とで、解釈・考え方にずれがあったのではないか。
上にも書いている通り、AGIを達成しているのなら、営利企業であるMicrosoftに渡すのは規約違反である。
ただ仮にGPT-5をMicrosoftに提供しなかったら、資金の提供が途絶える可能性は高い。つまりOpenAI社はこれ以上研究開発ができなくなる。
よって、サム・アルトマン氏は取締役会に対し、GPT-5はAGIを達成していないと主張したか曖昧にした上で、MicrosoftへGPT-5を提供しようとしたのではないか。
またもしそれを止めないとしたら、それは確かに取締役会の役割(安全で全人類に利益をもたらすAGIの構築)を果たせないことになる。
この辺を詳細に公表してしまうと、つまりGPT-5=AGIという見方が世間で強まる可能性がある。
仮にそうなれば、OpenAI社は、MicrosoftにGPT-5を提供できなくなるだろう。
そのことはOpenAI社も困るが、一番困るのは上で説明した通り恐らくMicrosoftである。
恐らくGPT-5はAGIを達成していないことにして、時間を稼いでいる内に、AGIをMicrosoftに提供できるような体制にするのではないか。
尚、Microsoftの社長は、AGIが早期に達成する可能性を否定している。
https://jp.reuters.com/economy/industry/ZPLE2C2BPNKVZJ2PIBPOFWDK6Y-2023-11-30/
Appleが「Macの8GBはWindowsの16GB相当だぞ」と言ったもんだから、世間が騒がしくなっている。
それに輪をかけて、「Macの8GBと16GBを比べたら、16GBの方が速いぞ」という、いっけん関係していそうで、よく考えればまったく関係のない比較が結びつけられてしまって、これが人々の混乱を招き、騒ぎを大きくしてしまっている。
- M3 MacBook Proの8GBのメモリはWindows PCの16GBと同等 - こぼねみ
- Apple幹部、MacBook Pro (14-inch, M3, Nov 2023)の8GBメモリは他のノートパソコンのメモリ16GBに相当するとコメント | Mac | Mac OTAKARA
- M3 MacBook Proのメモリ8GBは「Windows PCの16GBに相当する」 | ゴリミー
- 「メモリ8GBは不十分」ーーM3 MacBook Proの検証動画が公開 | ゴリミー
- Appleが「M3 MacBook Pro」の8GBのユニファイドメモリは16GBの他製品RAMと同等であると主張 - GIGAZINE
いずれはまともな検証動画が上がってくるとは思うが、ひとまず、2023年以降のMax Techチャンネルに上がっている、Windowsとのメモリ効率の比較が可能な動画をあさり、並べてみたのでご覧いただきたい。私自身も懐疑的だったが、こうしてみると、あながちAppleの主張も荒唐無稽だとは言えないようだ。
Lightroom Classic (50x 42MP RAW Export)
メモリ | 機種名と他スペック | 処理時間 | 参照 |
---|---|---|---|
###### 48GB | MacBook Pro 16" M3 Max 1TB ($3999) | lll 0:30 | 12 |
#### 32GB | MacBook Pro 16" M2 Max 1TB ($3499) | lll 0:39 | 11 |
## 18GB | MacBook Pro 14" M3 Pro 512GB ($1999) | llll 0:45 | 1 |
######## 64GB | MSI Z16P 16" i7-12900H 3080Ti 2TB ($4399) | lllll 0:51 | 11 |
## 16GB | MacBook Pro 16" M2 Pro 512GB ($2499) | lllll 0:57 | 5,9 |
## 16GB | MacBook Pro 14" M3 512GB ($1799) | llllll 1:03 | 4 |
## 16GB | MacBook Pro 14" M2 Pro 512GB ($1999) | llllll 1:06 | 1,4 |
## 16GB | MacBook Air 13" M2 512GB ($1699) | lllllll 1:13 | 10 |
## 16GB | MacBook Air 15" M2 512GB ($1699) | lllllll 1:17 | 6,7,8 |
#### 32GB | XPS 15 9530 15" i7-13700H RTX4070 1TB ($2849) | lllllllll 1:32 | 5,6 |
## 16GB | Galaxy Book 3 Ultra 16" i7-13700H RTX4050 1TB ($2399) | lllllllll 1:32 | 9 |
# 8GB | MacBook Pro 14" M3 512GB ($1599) | llllllllll 1:47 | 2,3 |
## 16GB | Galaxy Book 3 Pro 13" i7-1360P 1TB ($1649) | llllllllllll 2:01 | 10 |
## 16GB | LG Gram 15" i7-1360P 512GB ($1699) | llllllllllll 2:05 | 7 |
# 8GB | MacBook Air 15" M2 256GB ($1299) | llllllllllllll 2:20 | 8 |
# 8GB | MacBook Air 13" M2 256GB ($1199) | llllllllllllll 2:22 | 2 |
参照元: (外部リンク数の制限があるのでgoogle検索を介している)
注:
もっとも、先述の通り「Mac同士で8GBと16GBを比べたら当然16GBの方が余力があるので、Proを名乗る機種は16GB備えるべきだ」という意見は至極真っ当だとも思う。すなわち、上記のようなベンチマーク環境から、たとえばChromeのタブを追加で開いていったらどうなるかというと、MacだろうがWindowsだろうが8GB機ならすぐに悪影響が出てきてしまう。Macの8GBメモリの「処理効率」は確かに16GB相当かもしれないが、「同時に扱えるデータ量」は別物だということに注意してもらいたい。Macは後者についても効率的なのかもしれないが、それをWindowsとの比較で検証できる動画は見つけられなかった。
追記:
赤字で示したM3シリーズのうち、M3の2機種を比べてみてほしい。この2機種の違いは8GBと16GBの差、$200だけだ。それで1:47から1:03まで改善するのだから、$200の価値は高いと思う。またこの数字は、同時にChromeのタブを開いていく検証(参照元3)では、ますます差が開くことになる。16GBのほうは、20タブを開いてもびくともしない。
メモリ | 機種名とスペック | 処理時間 | 参照 |
---|---|---|---|
## 16GB | MacBook Pro 14" M3 16GB 512GB ($1799) | llllll 1:03 | 4 |
## 16GB | MacBook Pro 14" M3 16GB 512GB ($1799) | llllll 1:06 * with 5 Tabs | 3 |
## 16GB | MacBook Pro 14" M3 16GB 512GB ($1799) | llllll 1:06 * with 20 Tabs | 3 |
# 8GB | MacBook Pro 14" M3 8GB 512GB ($1599) | llllllllll 1:47 | 2,3 |
# 8GB | MacBook Pro 14" M3 8GB 512GB ($1599) | llllllllllll 2:00 * with 5 Tabs | 3 |
# 8GB | MacBook Pro 14" M3 8GB 512GB ($1599) | lllllllllllllllllllllllllllllll 5:16 * with 20 Tabs | 3 |
なお、これはまさに冒頭で触れた「Macの8GBと16GBを比べたら、16GBの方が速いぞ」という検証である。Windowsとの比較を終えて、結局行き着くところはここなのだった。
https://twitter.com/merumeruchann/status/1663878494336458753?s=20
3. Choose your words wisely; AKA consider what is SEXY
"Wriggling" is a pretty standard translation of 藻掻く but in English it's associated with worms. WORMS! 🪱 "Undulating" is much nicer. e.g. A pussy doesn't wriggle, it undulates or ripples, or it convulses around his cock.
A woman doesn't wriggle her hips, she bucks them or she writhes. Your MC doesn't rock his hips he thrusts or pumps or rides. His hips aren't "moving on their own" he "can't control himself".
「もがく、身悶えする」はふつう"Wriggling"と訳されるが、これは虫を連想させるのでダメ。"Undulating"のほうがよい。
「まんこがうねる」と言いたいときも、wriggleではなく、undulate や ripple
あるいは"it convulses around his cock."
同様に、女が尻をくねらせるとき wriggle her hips とは言わない。she bucks them or she writhesなどと言う。
男が腰を振るときはrock his hipsではなくhe thrusts or pumps or rides
意識的に腰を振るのではなく自分をコントロールできず振ってしまう感が大事
Sometimes a woman's skin may be described as 白魚. This is sexy in the original cultural and linguistic context. In many English-speaking cultures, fish are used for negative comparisons. Something like translucent or dewy would be an appropriate equivalent.
In JP a man going wild during sex is often likened to a monkey, but this has a more comical sound in English, where comparisons to simply a "wild animal" work better.
女の肌を「白魚」と形容することがあるが、英語では魚はネガティブな意味合いになってしまう
translucent (透き通るような)やdew(つややかな)と言い換えると良い
また、激しいセックスの最中、「猿のように」と形容することがあるが、英語ではコミカルに響いてしまうのでwild animal(野生動物、獣)などと言いかえるとよい
Consider the virgin "He put his penis in her vagina" vs the chad "He slid his cock into her pussy".
These sentences describe the same action, but one says "I fuck" and the other says "I've only ever seen sex in the bio textbooks my model was trained on".
On the other hand, don't throw in porny words where there shouldn't be any; if your heroine is a shy virgin and the source text is using coy words like あそこ, don't have her shouting FUCK MY TIGHT LITTLE PUSSY in English.
挿入するシーンでは
"He put his penis in her vagina"
とするのではなく、
"He slid his cock into her pussy".
と訳すべき
後者は「ヤる」という感じだが、前者は「私はAIなので性行為については生物学の教科書の知識しかありません」みたいに聞こえてしまう
とはいえ、ヒロインがシャイな処女で、「あそこ」と控えめに言っているのに”FUCK MY TIGHT LITTLE PUSSY”(私のキツキツオマンコを犯して!)などと絶叫させてはいけない
単に英語力と思慮、注意力の欠落です。
Introducing ChatGPT
We’ve trained a model called ChatGPT which interacts in a conversational way. The dialogue format makes it possible for ChatGPT to answer followup questions, admit its mistakes, challenge incorrect premises, and reject inappropriate requests.
英語話者であればこれを斜め読みしただけでアトム的な質問回答機としては使わない、
ページ翻訳ではニュアンスが伝わりにくいんだよね、普段から英文で仕事してたり慣れてる人間じゃないとこの説明文で言わんとする所はピンと来ないだろう。
かつ、まともな思慮と注意力がある人間なら、GPTてなんじゃ?ってところは使う前に調べる、
グレート?ジェネレート?プロ?プレ?プロフェッショナル?プロダクト?テキスト?トランザクション?
まぁ頭の中でなんか思い浮かべながら(この段階でもブランディング誘導は始まってる、日本人にはこれが効かない)
で、横線ページをスクロールさせる、SAMPLEだのMethodsだのまぁこれ日本人の大半は読んでないんだろう。
ここまで英語話者が読んだらよもやChatGPTを検索タスクとして使おうとは思わんよ。
で、Generative Pre-trained Transformerを見つける、はいはいと
トランスフォマーだよ、車がロボットに変形したり、電柱の上にぶら下がってるやつ、アメリカだと路上だが
ともかく、変換器ねと理解し解釈して使い出すんだからそりゃ検索タスクには使わん。
で、と、増田はChatGPTを生成AIだと言うてる、世間一般でもそのように呼称されてはいるのだけど
OpenAI社のドキュメント類、ChatGPTの説明文を調べてご覧、このプロダクトを人工知能だとはどこにも書いてない。
ドキュメントコントロールの部署が検閲し注意深く表現に配慮している様子が伺える
これは重要な点で
同社の画像AIのダル(DALL·E 2)は明瞭にAIと標榜しているのと対象的
AIの国際的な規格は無い、どういう基準でAIを名乗れるか、法的なしばりは無い、冷蔵庫だってAI内蔵を名乗りたけりゃ名乗れる、技術要素の裏付けは不要
だがOpenAI社はあえてChatGPTをAIだと呼ばない。
1、AI規制の世論、方向性を見極めてからでも遅くない(ユーザーやメディアは勝手にAIとブランディングしてくれるし)
説明する、
AI法規制議論真っ只中、どっちに転ぶかわからん、最悪ガチガチ規制もありえる、できたばかりの法や規制に対してノーアクションレターは通りにくい
何れにせよ商売はやりにくくなる
関係者は頻繁に公聴会やらに呼ばれている状況、ここら温度感は日本はまたまた周回遅れなんだが
企業戦略としてChatGPTをAIと自らは名乗らないのは正解なの、AIの法的定義すらない段階で、先々AI指定を回避する一つのキーになりかねない
訴訟になったときに「え?ワイらそもそもChatGPTをAIだと言うたことはありませんが?」これが主張できる
自分から「これはグレートなAIでっせ」と標榜していたらもはや逃れられない。
ともかく、笑えるくらい慎重に彼らはChatGPTを人工知能だとは宣伝しない、生成AIではないんです。
そもそも、技術ドキュメントを読んでも古典的なAIの技術は使われてない。
所謂ニューラルネットワーク、パーセプトロン、脳機能の模倣をどのような手法や計算で再現するか
Pre-trainedの部分では使ってるが、応答エンジンの部分では実装されてない、たぶん、しらんけど
で、ChatGPTが嘘デタラメを混ぜるのは故意です、俺は確信してる
いろんなプロンプト、少しずつ字句を変えたり、応答の考察をしたんだけど、わざと信頼精度を下げてるとしか思えない。
これパラメーターの調整でいかようにもできるはずなんだが、かなり意図的に嘘捏造が混ざるようにチューニングされてる。
ようはこれもAI議論の方向性を誘導するための戦略だろう「しょせんこの程度っすよ」と