「オープンソース」を含む日記 RSS

はてなキーワード: オープンソースとは

2024-07-22

anond:20240722160107 anond:20240722141601

トップ技術音痴ならしゃーない

でもまぁ技術者ばかり集めてもしゃーないけどな。適切に広告マーケティング打てなきゃそら家電みたいに死ぬ

結局のところ、オタク無駄能力値だけ無駄に高いキョロ充以外のキャラも、みんなお勉強しないとダメだってことです

知のオープン化進めましょ

 

富士通には約250人のLinuxカーネル開発者がいる(2009年)

https://xtech.nikkei.com/it/article/Interview/20090107/322420/

 

NECも大昔からういういう感じよ

NECが開発貢献するオープンソース|OSS貢献活動Linuxカーネルに対するNECの取り組み

https://jpn.nec.com/oss/community/contribution/contributing-to-development-of-linux-kernel.html

 

 

でも、そんなNECが繰り出した『ゲーミングPC』はこれだ

 ↓ 少し反省したあとも

anond:20240722140030

増田はJTC(この呼び方にきらい)に業務としてオープンソースの開発をしている人たちがいること

いわゆる伝統的な大企業コミッターがいること認識しとくといいよ

2024-07-21

AI嫌いの絵師は今すぐ創作やめろ

AI技術がどんどん進化してるのに、絵師けが自分たち特別扱いしろって騒いでるのマジで笑えんだわ

お前ら一体何様のつもりだよ?

他の分野はどこも著作権法範囲内でAI活用してんのに、お前らだけが特別扱いしてくれ」って?甘ったれんなっての  

IT世界じゃオープンソースソフトが当たり前に使われてるしエンジニア他人コードを学んでそれを元に新しいソフトを作ってんだよ

それで技術進化を促進してるわけ。絵師が「自分作品AI学習させるな!」ってのは、エンジニアが「他人コードから学習するな!」って言ってるようなもんだ

いかに脳が腐ってる物言いか少しは考えろよ  

音楽業界も同じ。サンプリングリミックス多様性が生まれてんのに

絵師けが「俺たちの作品特別扱いしろ」とか言ってんの、どこまで自己中なわけ?

音楽家サンプリング禁止にするようなもんだって気づけよ。それがどれだけバカバカいか少しは頭使えっての

  

そもそも、現行の生成AIが嫌ならどこにも絵を公開しなきゃいいだけだろ

お前らがネット作品を上げてる時点で誰かに見てもらいたいんだろ?

だったらAI学習するのも人間と同じ至極真っ当だろうが。それすら嫌なら引きこもって一生自分PCの中だけで楽しんでりゃいいんだよ

公開する以上、他人に見られて活用されるのを受け入れろやゴミ

  

にしてもAIの登場で絵を描く奴らが技術進化文化の発展の歴史をまるで理解してない

自分の狭い世界だけで生きてるから少しでも新しいことが起きるとすぐにギャーギャー騒ぎ出す生き物だって露呈したのには驚きだったわ

まさかここまで幼稚で社会性無いとはねえ

結局絵師特別扱い要求するのは自己中心的で技術法律歴史理解してない無知無学の証拠

そのきったねえ特権意識捨てろ。じゃなきゃ今すぐお絵かき創作もやめろ。いい加減、現実見ろや

2024-07-15

anond:20240715122602

私が人生で使っているセコい小技を言語化してオープンソースにするの辞めて(笑)

anond:20240715122602

私が人生で使っているセコい小技を言語化してオープンソースにするの辞めて(笑)

2024-07-13

AIはもう少し一次情報に当たってもいいのでは

案の定炎上したPaints-Undoだけどこれで怒り狂っている人たちのポスト見てると以下の2つに大別される。

こいつに関してはオープンソースGitHubレポジトリがあってそこのREADME.mdにどんなものかがだいたい書いているのだが、発言からそれすら読んでいないと思われる人が多数。

アラビア語ベトナム語で書かれているわけじゃない。英語で書かれているんだからそのくらい読めよとしか思えないんだがな。

Webサービスだと思ってる人も結構いるし。

一次情報を当たったら負けみたいなのが反AI界隈にあるのか?

そこを見ないか平行線をたどる口汚い罵り合いがXにばらまかれるわけでいい加減にしてほしいんだが。

事実ベースで話す習慣をもっと身につけて欲しい。

2024-07-09

都知事選田母神以下だったIT期待の星(笑)安野貴博の今後

選挙コンサル会社立ち上げて稼ぎに行く,というのが個人的な予想.

今回の都知事選で安野が得たのは以下の3点.

今回の選挙で使ったシステムについてオープンソースで公開する,とは言っているが,そこには運用ノウハウは含まれていない.

しろソフトウェアよりもノウハウの方に価値があるし,東京都知事選で実際に運用したこと説得力が上がってる.

供託ラインに届かなければ800万の赤が出る,と言っていたが,これだけの運用実績テスト知名度稼ぎが800万で済むならむしろ安い方だろう.

2024-07-03

anond:20240703142549

まず、90%を占めるIT土方に変な期待を持たれても困る

割りが良いかお仕事でやってるだけで

ワイらはそのへんにいるフツーのおっさんおばさんでただのリーマン

 

次に、元増田とかがイメージしてそうな10%くらいのIT屋さんについて

日立とかNTT研究所とか見るに言うほどダメか?って思うが、

セミナーレポートイベントセミナーOSSオープンソースソフトウェア):日立

https://www.hitachi.co.jp/products/it/oss/events/report.html

(日本でも業務として開発している技術者がいる)

 

たぶん、増田イメージしてるのは、Tech Startup の ロックスターなのよ

創業者技術があって(少なくとも自分で手は動かせる)、ビジネスセンスがあって、時流に乗ってユニコーン企業!!!

Facebook(Meta)!!Google!!みてーな

 

なんでロックスターを目指さず、有名企業で安泰を目指したり、

オタクくんをトロフィーとして飾ってるだけの会社行くんですか?って言っても

非常に無意味な問いなのよ

 

増田自身ロックスター目指したらいい

 

How Startups Are Like Rock Bands

https://readwrite.com/how-startups-are-like-rock-bands

2024-06-28

anond:20240628082805

プログラマ個人開発したオープンソースソフトウェア (ライブラリ) を会社自分採用するという形にすることによって会社権利を渡さなプロダクトを運用しているということはよくあること。

ウェブ企業商品コンテンツであって技術ではないので技術の部分はなるべくお互いに融通したほうが得だという価値観があり、オープンソースの利用も貢献も積極的なんだよ。

プライベートと言えばプライベートだけど、実態としては「会社を超えて提供できる価値」を聞きたいわけ。

2024-06-20

anond:20240620192735

増田ちゃん、その質問っすね、実に大事ポイントっす。

GPL(General Public License)はオープンソースライセンスで、コード使用や変更が自由っすが、そのコードを使って新しいプログラムを作る場合は、その新しいプログラムGPLライセンス条件を守らなくちゃならないっす。

まりGPLライセンスコード学習するだけなら問題ないっすが、そのコードを元にして新しいソフトウェア作成し、そのまま公開すると、その新しいソフトウェアGPLライセンスに従わなければならないっす。

その結果、他人がその新しいソフトウェアソースコードを見たり、変更したりする権利を持つことになるっす。

ただ、個人的学習する範囲なら、特に問題ないっすよ。

公開しない限り、どのライセンスにするかは気にしなくていいっす。

でも、公開を考えるなら必ずライセンスの内容を理解して、適切に対処することが求められるっす。

anond:20240620191228

了解っす、増田ちゃん!まず、「LLMによる学習許可する」と明示的に許可しているメジャーライセンスについてだけど、具体的にそう書かれているライセンスは見たことないっす。でも、オープンソースコミュニティではさまざまなライセンスがあって、一般的には「公に公開」の一環として使われることが多いっす。

例えば、Apache License 2.0とかMIT Licenseなんかはかなりオープンで、コードの利用に制約が少ないっす。でも、「LLMの学習のために使っていいよ!」って具体的に書いてるわけじゃないっすね。

次に、Copilotについてなんだけど、確かにGitHub Copilotは公開されてるリポジトリ学習対象にしてるって言われてるっす。ただ、ライセンス自体を直接確認してるかどうかって話になると、基本的には「公開されてる=使ってOK」って前提で動いてるんじゃないかと思うっす。でも、これも法的にグレーな部分があるから、完全に安心ってわけじゃないっす。

Copilotは多くのフィードバックを受けながら、改善を続けているけれど、使用する際には自分プロジェクトとのライセンス整合性をしっかり確認することが大事っすよ。

anond:20240620125705

ちょっと検索」でプロとやり合おうとするな

オープンソースのTesseract、AWSGCPAzure系のOCRサービスGoogle Drive APIなどがありましたが、今回はAzure Computer Visionサービスを用いて使用することにしました。文字認識精度的にも申し分なく、かつ料金的にも1 分あたり 20 件のトランザクションかつ月5000回まで無料ですので、精度、コストパフォーマンス考慮して選択

誤字がない素晴らしい出来でした

さすがにすべて正確な出力とはなりませんでしたが、それでもはっきりとメモしてある箇所は認識できている、十分な内容でした

人間でもミスはあるので猿雇う意味ないんだよ

必要なのは最後責任取れる人なの

あとはこれを実装できる人と紙をひたすらスキャンする人

2024-06-12

https://duckduckgo.com/?q=DuckDuckGo&ia=chat

DuckDuckGo AI Chatへようこそ!

GPT-3.5、Claude 3に加え、オープンソースのLlama 3やMixtralなど、人気のAIモデル匿名アクセスできます

へー

DDGにもこんなもの

Mixtralにしたら応答の最後にいちいち「私はDuckDuckGoAI言語モデルプライバシー配慮を」みたいなことを言う

2024-06-08

プライバシーを守る生活

毎朝6時に起きる私は、まずベッドサイドに置いたLibrem 5スマートフォンに手を伸ばします。ハードウェアキルスイッチカメラマイクオフにしているため、寝ている間も安心して眠ることができます

目覚めの後、簡単ストレッチをしながら、Signalで昨晩のメッセージ確認します。フリーランスソフトウェアエンジニアとして働く私にとって、世界中クライアントとの連絡は欠かせません。

朝食を済ませると、私はLibrem 14のノートパソコンを起動します。このパソコンには、プライバシー保護に特化したPureOSインストールされています

私はまず、ProtonVPNを起動してインターネット接続し、セキュアな環境を確保します。Torブラウザーを開き、プライバシー関連の最新ニュースをチェックするのが日課です。

次に、メール確認し、必要タスクを整理します。仕事の依頼やクライアントから質問対応する際、私はエンドツーエンド暗号化が施されたメールサービス使用します。

午前中は、オープンソースプロジェクトへの貢献に時間を割きます。私はGitHubプロジェクトフォークし、コード改善バグ修正を行います

仕事中、私はプライバシーを確保するために、全ての通信暗号化し、GoogleMicrosoftサービスを一切使用しません。

必要ツールソフトウェアは、全てオープンソースであり、信頼性の高いものを厳選しています

昼食の時間になると、私は外出して近くの公園サイクリングを楽しみます自転車に乗ることで、リフレッシュし、健康を維持することができます

公園では、持ち運びが簡単Raspberry Piを使って、モバイルホットスポット作成し、安全インターネット接続を維持します。これにより、外出先でも安心してインターネットを利用できます

午後は、クライアントプロジェクトに集中します。私はクライアント要求に応じてソフトウェアを開発し、そのコード安全方法で納品します。

私はまた、プライバシーに関する技術記事執筆し、自身ブログ投稿します。これにより、自身知識を共有し、他の人々にもプライバシー重要性を理解してもらうことを目指しています

夕方になると、私は写真撮影を楽しみますカメラ風景や街の様子を撮影し、それをプライベートクラウドストレージに保存します。

このクラウドストレージは、自分管理しているため、第三者データアクセスすることはありません。撮影が終わると、家に帰り、自分写真編集してブログ投稿します。

夜になると、一日の終わりにデバイスセキュリティチェックを行います。最新のセキュリティパッチが適用されているか確認し、必要に応じてシステム更新します。

また、バックアップ作成し、重要データ複数安全場所に保存します。最後に、Tails OSを使ってセキュアにブラウジングし、リラックスして一日の疲れを癒します

2024-06-05

I.GPT-4からAGIへ:OOMを数える (6)

データの壁

これらすべての重要な変動要因になりうるものがあります。つまり、より多くのスクレイピングデータでより大きな言語モデルをプリ・トレーニングするという素朴なアプローチが、まもなく深刻なボトルネックにぶつかり始める可能性があるということだ。

フロンティアモデルはすでにインターネットの多くで訓練されている。例えば、Llama 3は15T以上のトークン学習された。LLMのトレーニング使用されたインターネットの多くのダンプであるCommon Crawlは、生で100Tトークンを超えるが、その多くはスパムや重複である(例えば、比較的単純な重複排除は30Tトークンにつながり、Llama 3はすでに基本的にすべてのデータ使用していることになる)。さらに、コードのようなより特殊領域では、トークンの数はまだまだ少ない。例えば、公開されているgithubリポジトリは、数兆トークン推定されている。

データを繰り返すことである程度遠くまで行くことができるが、これに関する学術的な研究は、16エポック(16回の繰り返し)の後、リターンは非常に速く減少し、ゼロになることを発見し、繰り返しはそこまでしか得られないことを示唆している。ある時点で、より多くの(効果的な)計算を行ったとしても、データ制約のためにモデルをより良いものにすることは非常に難しくなる。私たちは、言語モデリング-プレトレーニング-パラダイムの波に乗って、スケーリングカーブに乗ってきた。大規模な投資にもかかわらず、私たちは停滞してしまうだろう。すべての研究室が、新しいアルゴリズム改善や、これを回避するためのアプローチに大規模な研究の賭けに出ていると噂されている。研究者たちは、合成データからセルフプレー、RLアプローチまで、多くの戦略を試していると言われている。業界関係者は非常に強気のようだ:ダリオ・アモデイ(Anthropic社CEO)は最近ポッドキャストでこう語った:「非常に素朴に考えれば、我々はデータ不足からそれほど遠くない[...]私の推測では、これが障害になることはない[...]。もちろん、これに関するいかなる研究結果も独占的なものであり、最近公表されていない。

インサイダー強気であることに加え、サンプル効率はるかに向上させたモデルトレーニングする方法(限られたデータからより多くのことを学べるようにするアルゴリズムの改良)を見つけることが可能であるはずだという強い直感的な理由があると思う。あなたや私が、本当に密度の濃い数学教科書からどのように学ぶかを考えてみてほしい:

モデルトレーニングする昔の技術は単純で素朴なものだったが、それでうまくいっていた。今、それがより大きな制約となる可能性があるため、すべての研究室が数十億ドルと最も賢い頭脳を投入して、それを解読することを期待すべきだろう。ディープラーニング一般的パターンは、細部を正しく理解するためには多くの努力(そして多くの失敗プロジェクト)が必要だが、最終的には明白でシンプルもの機能するというものだ。過去10年間、ディープラーニングがあらゆる壁をぶち破ってきたことを考えると、ここでも同じようなことが起こるだろう。

さらに、合成データのようなアルゴリズムの賭けの1つを解くことで、モデルを劇的に改善できる可能性もある。直感的なポンプを紹介しよう。Llama 3のような現在フロンティアモデルは、インターネット上でトレーニングされている。多くのLLMは、本当に質の高いデータ(例えば、難しい科学問題に取り組む人々の推論チェーン)ではなく、このようながらくたにトレーニング計算の大半を費やしている。もしGPT-4レベル計算を、完全に極めて質の高いデータに費やすことができたらと想像してみてほしい。

AlphaGo囲碁世界チャンピオンを破った最初AIシステム)を振り返ることは、それが可能だと考えられる何十年も前に、ここでも役に立つ。

LLMのステップ2に相当するものを開発することは、データの壁を乗り越えるための重要研究課題であるさらに言えば、最終的には人間レベルの知能を超える鍵となるだろう)。

以上のことからデータの制約は、今後数年間のAI進歩予測する際に、どちらに転んでも大きな誤差をもたらすと考えられる。LLMはまだインターネットと同じくらい大きな存在かもしれないが、本当にクレイジーなAGIには到達できないだろう)。しかし、私は、研究所がそれを解読し、そうすることでスケーリングカーブが維持されるだけでなく、モデル能力が飛躍的に向上する可能性があると推測するのは妥当だと思う。

余談だが、このことは、今後数年間は現在よりも研究室間のばらつきが大きくなることを意味する。最近まで、最先端技術公表されていたため、基本的に誰もが同じことをやっていた。(レシピが公開されていたため、新参者オープンソースプロジェクトフロンティアと容易に競合できた)。現在では、主要なアルゴリズムアイデアますます専有されつつある。今はフロンティアにいるように見えるラボでも、他のラボブレークスルーを起こして先を急ぐ間に、データの壁にはまってしまうかもしれない。そして、オープンソース競争するのがより難しくなるだろう。それは確かに物事面白くするだろう。(そして、ある研究室がそれを解明すれば、そのブレークスルーはAGIへの鍵となり、超知能への鍵となる。)

続き I.GPT-4からAGIへ:OOMを数える(7) https://anond.hatelabo.jp/20240605210017

2024-04-20

MetaのオープンソースLLMのLlama3

二日前にMetaがオープンソースの大規模言語モデルのLlama3を出した。

一つ前のモデルLlama2は色々なオープンソースモデルの基となっていたモデル。このモデル性能良いねと思って見たら、Llama2をいじったモデルだったことがよくあった。

今回も、2つのモデルが発表された。70Bと8Bモデル。70Bモデルともなると、ほぼ個人パソコンでは動かないだろうけど、性能については、LLM のリーダーボード最初期のGPT-4 を超えている。

LLMの最重要論文とも言われる"Attention is all you need."の著者の一人の会社が出したモデル"Command R+"が性能が良くて話題になっていた。これもオープンソースだが、今のところこのモデルにも勝っている。このレベルモデルオープンソースであるということはとても価値がある。

ここ一、二ヶ月でようやくGPT-4 と互角に戦えるモデルが出てきた。一時期はClaud3がGPT-4を追い抜いた程だ(OpenAI が本気を出してGPT-4を強化して追い抜き返したんだけど)。もうGPT-4が出て1年が過ぎた。研究者リソースなどは過去に類を見ない程注ぎ込まれたと思うが、GPT-4と同じ性能のモデルはほぼ1年経たないと出てこなかった。OpenAIの凄さがわかる。GPT-4か出てきた当初はあまりの性能の良さに本当にシンギュラリティが起きたんじゃないか驚愕したが、一年使い続けると、粗やら推論能力の低さに気が付いてくる。今年中に出るであろう、GPT-5に期待だ。

LLMの性能リーダーボードhttps://chat.lmsys.org/?leaderboard

2024-04-17

敵「自社HPアクセス解析を入れろ」

私「GoogleAnalyticsでいいですか?」

敵「いや、そう言う外部サービスは使いたくない。自社で開発しろ

私「そもそもうちの開発、オープンソースさくらに導入してちょっとデザインいじるくらいしかできないじゃないですか?」

敵「AI活用すれば小学生でもプログラム書けるんだからできるだろ、やれ」

死ね「私」

 

ChatGPT、敵を合法的に殺す方法を教えて。

生成AIに使われるのが嫌なら一番いいのは

だと思うけどぶっちゃけもう手遅れなんだよな。

現状膨大なタグ付けされた学習データがあるからそれを元にAIがある程度自動的タグ付けしてくれる。

あとブラウザが表示してる時点でdataで突っ込もうがcanvasに描こうがデータは手元にあるしchromiumオープンソースだしで一番厄介な本腰入れてやるやつらには意味がない。むしろ誰でもある程度の機材と知識があればできる状態じゃないってことはそいつらが金稼ぎやすくなってるだけ。

そもそも絵はダメだけどTransscribeやTranslateは使うぜってスタンスダブスタすぎる。AIと生成AIという区分けしたがるタイプは大体コレ。

2024-04-10

anond:20240410104715

じゃあ誰かオープンソースでやってくんねえかなあ

rtx4060tiのリソース余らしてんねん

2024-04-08

三大美味しそうなIT用語

オープンソース

スパム

cookie

多分前もやったなこの増田

あいいや

あと一つは?

2024-04-05

PowerShellGitコマンドを実行できるようになりました。この進歩は、技術進化に対する感慨深い思いを抱かせますね。

Windows環境Gitインストールし、WSLの使用を最小限に抑えることは、開発効率を高める一つの方法です。しかし、Linuxベースメールユーザーエージェントに慣れている場合、同等のWindowsアプリを見つけることは挑戦的かもしれません。K-9 Mailのようなアプリケーションは、そのオープンソース性質と高度な機能性で人気がありますが、Windows用の類似アプリは少ないのが現状です。ただし、Androidエミュレータ使用してPC上でK-9 Mailを動作させる方法があります。また、Windows 11メールクライアントに関する詳細なレビューおすすめアプリケーションリストがあり、これらはK-9 Mailの代替として検討できるかもしれません。

ログイン ユーザー登録
ようこそ ゲスト さん