彼が起業家として日本にやる事があるとすればひとえに投資を煽る事です。

話題になっていると言えども日本政府が国外の企業にホイホイ投資する訳にも行かないのですが、OpenAIは必ずしも直接自社に出資をして貰わなくても業界全体への投資が盛り上がれば間接的に利益を得られる立場にいます。

彼らが研究開発している大規模言語モデルはパラメータサイズと教師データと学習時間を増やせば増やすほど性能が伸びるのですが、現在公開されているGPT-4の学習に必要な計算リソースは(公開されていませんが恐らく)既に現在世界最先端のスパコンを数ヶ月単位で占有する規模に膨れ上がっています。つまり単純に大きくするだけで性能が上がる時期は過ぎてしまったので他の工夫が必要と言っています。もちろんOpenAIはそういう研究をしていますが並行してさらに莫大な計算リソースを可能な限り安く手に入れる事で更に良いモデルを作れる見込みがあります。小さい学習モデルで同等の性能を実現する研究ももちろん行われていますしそれすらもやはり莫大な計算リソースが必要です。

さて、世界最先端のスパコンの性能をこれ以上引き上げようと思った時にボトルネックになっているものが何かと言うと、もちろん半導体のアーキテクチャや微細化や運用基盤なども重要ですが、究極的には経済の問題にぶち当たります。

乱暴な事を言うとスパコンは計算ノードをとにかく沢山並べて充分高速な線で繋げればピーク性能自体は青天井に伸びるのですが、計算ノードN台を接続する通信コストはN倍以上のペースで伸びますし、床面積や建屋の制限の他にも電力も20MWを超える規模になってくると新規に発電所を建てる事すら視野に電力会社と大口の契約を行う必要があり、たかだか数年の寿命しかないスパコンのために何十年スパンの投資回収計画や燃料調達ラインの確保が必要な火力発電所増設なんて普通は行えません。

現在日本最速のスパコンである富岳がなぜ今の性能になったかと言うとそうやって一次関数以上の勢いで悪化するサイズあたりのコスパに対して需要家の懐事情や具体的な計算内容やその計算力を持つことの経済的リターンや国として出せる研究予算や、Top500などでランクインすることのネームバリューなどなどをバランスさせた結果です。平たく言ってしまうとコスパがすべてなので大富豪か大企業が現れて「富岳の10倍のお金が掛かってもいいから富岳の2倍の性能のスパコンを作れ」と富士通に札束を出しさえすれば話が大きく変わります。

しかし世の中で何故それが起きていないかと言うと投資しても回収の見込みがないからです。流体シミュレーションでも何でも、莫大な計算能力を叩き込んだ結果で投資に見合う多額を稼げるアプリの見通しが立っていないとも言えます。

そこでOpenAI社が行うべきポジショントークは「基盤モデルはこれまでにない画期的なアプリを輩出し経済を大いに発展させる。必ずしもOpenAI社に投資しなくても構わないが大規模計算機や基盤モデルの投資回収計画や半導体産業全体にもっと夢と展望を入れて強気に投資して欲しい」となります。結果として例えばPost富岳のスパコンに積まれる予算が増えたり、Transformerのような構造に向いたスパコンとして設計をそちらに贔屓するとか(奇しくも富岳はメモリ帯域に資源を割く選択をしてしまったのでこのワークロードでは演算能力の相対的な弱さが足を引っ張ります)でも御の字です。あわよくば業界全体が盛り上がりさらなる応用の幅も見つかりマネタイズの目が増え業界の先頭を走るOpenAI社はさらなる恩恵を受けることができます。提言に使われた資料は塩崎議員のnoteから無料でダウンロードできますので興味があればご覧ください。

僕はこれは無駄のない強かな売り込み戦略だなと感心しましたし、うまく行けば日本や世界の経済全体も盛り上がって全員幸せになるので歓迎しています。

1年1年更新

利用規約プライバシーポリシーに同意の上ご利用ください

熊崎 宏樹さんの過去の回答
    Loading...