【米国株】さすが米国株民はAIに詳しいな…!?

【米国株】さすが米国株民はAIに詳しいな…!?

【米国株】さすが米国株民はAIに詳しいな…!?

658: 山師さん 2024/09/15(日) 16:35:05.57 ID:nDjBf1YO0
LLMに大きなパラメータはいらなくて
小さいモデルでも推論能力さえあれば反復させれば十分な出力があって知識なんて外部から取ればええってパラダイムシフトが起きたから
openaiやanthropicが持ってた巨大LLMのアドバンテージは無くなった感じやな
NO IMAGE

266: 山師さん (ワッチョイ 23be-m7vt [218.33.135.69]) 2020/03/19(木) 22:39:24.89 ID:xiSeFnor0 ハイテク全然下がってないけど、何がここまで下げてるん? 275: 山師さん (ワッチョイ 1676-3/18 [121.115.249.206]) 2020/03/19(木) 22:40:44.36 ID:e9cQFWv80 > […]

562: 山師さん 2024/02/06(火) 21:51:38.35 ID:qrRZWfRt 堀江さんのミラトレ実績掲示板、無くなったんだね。 563: 山師さん 2024/02/06(火) 22:16:24.70 ID:8tCc0l1q 掲示板なくすとかwww ミラトレやばいの?   572: 山師さん 2024/02/07(水) 21:00:13.49 ID:RFUiXJJ4 堀江 […]

610: 山師さん 2023/12/17(日) 19:59:00.76 ID:f7a57fuw0 絵面から湧き上がるそこはかとない相場の天井感! 新年が楽しみだぜえええ😎 https://ift.tt/b9ZCwuL 612: 山師さん 2023/ […]

NO IMAGE

405: 山師さん 2021/12/12(日) 18:10:07.12 ID:Quklo08qM ETFの分配金まだー?(チンチン🐶 もう四ヶ月に一回のこの楽しみしか残ってない😢 409: 山師さん 2021/12/12(日) 18:13:18.21 ID:F5nB4lnJ0 >>405 qyldなら毎月やぞ 増配等系のvigにたDGRWも毎月配当やぞ […]

758: 山師さん 2024/02/14(水) 08:04:40.07 ID:OHAHprbK0 アナリストとか言う役に立たない奴ら全員粛清して AIに置き換えて良いんじゃないのかな 771: 山師さん 2024/02/14(水) 08:07:27.03 ID:/uF8zUy50 >>758 予想外したらイエローカードで3枚取ったらアナリスト引退させるのはどうだろう   77 […]




662: 山師さん 2024/09/15(日) 16:36:36.31 ID:e4k8/VMh0
>>658
o1ってそういうことなの?

 

667: 山師さん 2024/09/15(日) 16:39:10.21 ID:nDjBf1YO0
>>662
そうやで
推論を繰り返す事に計算資源を使う事で性能が上がる証明になった
知識はRAGなり外部から取れば良くなって
こうなると大きいモデルの方が推論繰り返すリソース大きくなって不利になる

 

675: 山師さん 2024/09/15(日) 16:41:44.72 ID:vtzVkjAT0
>>667
そうは言っても一定量は必要そう言語(日本語とか)カバーも必要だし
あとマルチモーダル想定するとか、いろんな要素があるしな

 

689: 山師さん 2024/09/15(日) 16:47:17.19 ID:nDjBf1YO0
>>675
現在の一般的な家庭用PCで動く8Bモデルでも既に十分な言語能力と推論能力はあるからな
anthropicが運用してるような3兆パラメータのクソデカLLMは絶対いらなくなるわ
そもそも運用するのに数兆円規模の計算資源と維持費かかるからか

 

703: 山師さん 2024/09/15(日) 16:51:45.37 ID:QClqZ0Ds0
>>689
最終的にはバランスの問題になるのか

 

705: 山師さん 2024/09/15(日) 16:52:12.03 ID:vtzVkjAT0
>>689
まあ、今は十分だと思っても、もっと良いものが出たら物足りなくなるのはITだと毎度の話
どうせGPU性能も上がる、世の中に存在するGPUの総量も増える
資金がショートしない限り、足かせつける必要がない



716: 山師さん 2024/09/15(日) 16:56:29.02 ID:nDjBf1YO0
>>705
将来的には計算資源の性能も飛躍的に上がって大きなモデルもスマホのメモリで動く事になるやろうけどな
今後数年は小さいモデルを基準にして専門知識詰め込んだモデルをマージしたりRAGで知識量を解決するモデルが主流になると思うで

 

729: 山師さん 2024/09/15(日) 17:06:50.32 ID:vtzVkjAT0
>>716
超大規模モデルも、効率化するモデルもどっちも出てくるだろう
今の不足分を補うにはRAGはいいよね。ただRAGの知識も全部飲み込んだモデルが出てくることは期待してる
エッジじゃ動かなくてもデータセンターで動いてくれればいいんだし

 

665: 山師さん 2024/09/15(日) 16:38:23.71 ID:qGt+OV3Q0
>>658
いちおう画像生成とかの精度には必要かも

 

672: 山師さん 2024/09/15(日) 16:40:44.64 ID:vtzVkjAT0

>>658
>知識は外部から

これが本当に活きるならGoogleと一体化してるGeminiがぶっちぎりなんよ
あと一応GPT-4oも外部URLアクセスができるから簡易的ながら出来る
外部URLアクセスできないClaudeは残念

 

679: 山師さん 2024/09/15(日) 16:43:49.20 ID:vtzVkjAT0
日本人だと早い段階から(金がなくて規模で勝負できないから)効率化を求めだすけど
LLMの知能爆発は結局スケーリング則の先に起こるんじゃないかな

 

690: 山師さん 2024/09/15(日) 16:47:17.79 ID:UuOXPzpid

>>679
効率化というか企業顧客へのカスタマイズとサポートだけで稼ぐ感じだな

日本のSIはコストをかけるつもりもないしリスクを取る気もないんだよ
全てが人月商売で回ってる




707: 山師さん 2024/09/15(日) 16:52:54.43 ID:QClqZ0Ds0
>>690
惰性の延長でしかもの見れないやつがほとんどだからなあ

 

708: 山師さん 2024/09/15(日) 16:52:55.84 ID:vtzVkjAT0
>>690
まあ、無駄な仕事を省くだけでも十分価値あると思うけど

 

727: 山師さん 2024/09/15(日) 17:05:46.27 ID:IXZalmQH0
>>679
せやね、Transformerモデルは計算資源つぎ込めばつぎ込むほどスケーリング則に忠実に知能が伸びてるからAGI到達までは時間の問題

 

684: 山師さん 2024/09/15(日) 16:45:43.18 ID:6k94uMEV0
ただ内部で思考連鎖させる分応答がかなり長くなったから、推論スピードアップさせるために大量のGPUが必要

 

686: 山師さん 2024/09/15(日) 16:46:30.73 ID:vtzVkjAT0
>>684
NVDA全力してる身としてはホクホクだよなこの話

 

687: 山師さん 2024/09/15(日) 16:47:01.18 ID:9szPCk5n0
>>684
つ、つまりあの銘柄が勝ち確ってコト!?

 

700: 山師さん 2024/09/15(日) 16:50:25.34 ID:6k94uMEV0

>>686
>>687

今後、たとえば人間が1か月くらいかけて考えるような長大な計画をAIに考えさせようと思ったら、とんでもない数の思考連鎖が必要になるかも
となると必要な計算リソースは増えていくばかり

 

711: 山師さん 2024/09/15(日) 16:53:59.76 ID:vtzVkjAT0
>>700
AIシステム開発でそれやろうとしてる人いるな
まあ計算資源の総量も増える
金は頑張って払える人が払ってくれ

 

709: 山師さん 2024/09/15(日) 16:53:31.44 ID:fwqWyPG+H
さすが荒川民はAIに詳しいな
o1とGeminiの有料プランって現状どっちが優秀?得意不得意の分野とか明確にあるの?



718: 山師さん 2024/09/15(日) 16:56:29.66 ID:6k94uMEV0
>>709
o1は今ある他のモデルとは一線を画してる
指示されたことに何が必要かタスク分解して思考したり間違ってないか検証する思考力がある

 

723: 山師さん 2024/09/15(日) 16:58:49.41 ID:vtzVkjAT0

>>709
Geminiはどうしようもないゴミ。おもちゃ程度のGmail連携はあるけど、おもちゃ
マルチモーダル(というか動画ファイル入力)以外に価値ないよ
あと、Google AI Studioで無料で無制限に使えるので有料プランはいらない

ChatGPTのo1はプレビューだから有料でも回数制限あるよ
あとそんな使ってないなら、ChatGPTもClaudeも無料でいいんじゃないか

 

726: 山師さん 2024/09/15(日) 17:04:29.87 ID:fwqWyPG+H
>>718,723
ありがとう
現状、業務上の資料作成くらいにしか活用してないけどもっと楽したい
o1課金して試してみるわ

 

734: 山師さん 2024/09/15(日) 17:10:44.64 ID:vtzVkjAT0

>>726
o1、回数使い切ったら復活一週間後(だったかな)だから期待し過ぎないように。ほんとのプレビューだぞ
面倒なタスクに数時間付き合ってもらったら当分復活しませんと言われてしまった

まあ有料プランは月額料金なんだし、契約するならGPT4oでも何でもやらせてみるといい

 

722: 山師さん 2024/09/15(日) 16:58:27.13 ID:QClqZ0Ds0
ただ推論はGPUがいいかどうかはわからないのかな、ジムケラーとかはGPUが最適解とは言えないとよく言ってるし

 

724: 山師さん 2024/09/15(日) 17:01:52.84 ID:nDjBf1YO0
>>722
GPUが最良なんじゃなくて
GPUの中にある大容量高帯域メモリをくれってだけの話やからな
GroqのLPUで動作してるAPIなんかGPUと比べても早いから逆にNVDA危ないんちゃうのと思ってるけど



745: 山師さん 2024/09/15(日) 17:20:37.80 ID:vtzVkjAT0
>>722
Googleが作ってるTPUは良いらしい(学習も意外と良いらしい)
ただ、需要が途方もないので大丈夫だろう
GoogleやAmazonが自社設計した所で、結局TSMCに作ってもらうしかないんだし

 

750: 山師さん 2024/09/15(日) 17:24:34.85 ID:QClqZ0Ds0
>>745
そうか
ワイはAAPLがジムとなんかやるんじゃないかって期待してる
AAPLは結局googとは組めないしNVDAとも疎遠
ジムのほうはプロダクトはAAPLに向いてるしAAPLの枠のTSMCプロセスで量産できる
いいことしかない

 

766: 山師さん 2024/09/15(日) 17:29:12.83 ID:vtzVkjAT0
>>750
ジム・ケラー絡みはよう知らんけど、今形になっていないものが2年以内に普及する事はない
2年より先の事は分からんね
2年もあれば、エヌビディアのGPUも性能が伸びて省エネ化もするからね

 

775: 山師さん 2024/09/15(日) 17:32:38.96 ID:QClqZ0Ds0
>>766
まあそうやね
AAPLはTPU欲しがってる感じはする
AAPLなら量でデファクト取れるプレイヤーだからCUDAのモートも破れるかもしれん
本来はgoogの仕事だったが本命が移った気がする

 

802: 山師さん 2024/09/15(日) 17:40:00.17 ID:vtzVkjAT0
>>775
GAFAMすべてが自社チップが出来次第切り替えたいみたいだけど
アマゾンも何年も前からAIチップ自社開発してるけどNVDAに遠く及ばないから、思ったより時間はかかるなあと
(AWSはアマゾンのチップを選ぶと性能低い代わりに安くなるみたい。ただ、その程度の扱いにしかできない)

 

812: 山師さん 2024/09/15(日) 17:43:49.84 ID:QClqZ0Ds0
>>802
いまこのへんの争いがやばい熱量で進んでそうだね



引用元: https://ift.tt/gC8s03F

続きを見る

米国株ETFまとめ速報カテゴリの最新記事