LLMの出力が「情報技術を深く理解していること」に取って代わるような気がまだしてこないというのが僕の感覚です。

文章の繋がりから情報工学を理解しているかのように見せかける事は病的に上手いのが近年のLLMですが、例えば今書いているソフトウェアがどうあるべきかという議題に対してまるで役に立たないからです。ある程度巨大になったコードはモジュール単位で責務が別れており、プログラマは適宜「このコンポーネントはAを食わせるとBを返す責務がある」のような脳内モデルを構築してホワイトボード上でポンチ絵を共有したりデバッグに役立てたりしています。今の所LLMはそういう脳内モデルを構築するのが致命的に下手というかそういう能力がまだ搭載されていない気がします。そのモデルに沿って「ここにデバッグ出力入れたらわかるんじゃないか」とか「その新機能はこっちのコンポーネントに実装するべきでしょ」といった話をしたいのにそのレベルには人間しかついてきてくれません。

こういう常識の欠如を「世界モデル」なんて言葉で今のLLMに足りない機能として説明している人も見かけますがそれに近いかも知れません。

https://note.com/masayamori/n/n34df50d83489

「世界モデル(World Models)」とは何か。AIの未来の鍵を握る、その起源とポテンシャルについて|Masaya.Mori 森正弥 / CAIO (Chief AI Officer)

本記事は、今後のAI技術発展の鍵を握っている「世界モデル(World Models)」について、その由来となった論文を参照しながら、今後の可能性や課題も含めてざっくりと解説します。 「世界モデル(World Models)」について 「世界モデル(World Models)」とは何か?という問いに対して、短く答えるならば、「エージェントの取り巻く環境を、観測からの学習によってモデルとして獲得する枠組み」です。「AIに環境の変化や行動の結果を効率的に学習・予測させる技術」の一つであり、AIによる「想像とそれによる学習と判断」を実現させる手法とも表現できます。つまり、AIに「想像力」

note.com

ですのでLLMが来れない部分、つまりソフトウェアやハードウェアの内部をモデル化して抽象的な話をする事について価値を出していけるよう学習内容を考えていくのが良いと思います。

それはそれとしてコードレビューを通過するようなまともなコードというのは大体パターンがあるので(配列全体を回るときは範囲イテレート文を使え、とか)模様のような決まりのあるコードパターンを書くときはLLMが大いに助けになるときはあると思います。「ブロックごとコード補完が来た」という話は今もcopilotでよく見かける話でこういうのは早期から使い慣れておくのがおすすめです。

2か月

利用規約プライバシーポリシーに同意の上ご利用ください

熊崎 宏樹さんの過去の回答
    Loading...