LLMの出力が「情報技術を深く理解していること」に取って代わるような気がまだしてこないというのが僕の感覚です。
文章の繋がりから情報工学を理解しているかのように見せかける事は病的に上手いのが近年のLLMですが、例えば今書いているソフトウェアがどうあるべきかという議題に対してまるで役に立たないからです。ある程度巨大になったコードはモジュール単位で責務が別れており、プログラマは適宜「このコンポーネントはAを食わせるとBを返す責務がある」のような脳内モデルを構築してホワイトボード上でポンチ絵を共有したりデバッグに役立てたりしています。今の所LLMはそういう脳内モデルを構築するのが致命的に下手というかそういう能力がまだ搭載されていない気がします。そのモデルに沿って「ここにデバッグ出力入れたらわかるんじゃないか」とか「その新機能はこっちのコンポーネントに実装するべきでしょ」といった話をしたいのにそのレベルには人間しかついてきてくれません。
こういう常識の欠如を「世界モデル」なんて言葉で今のLLMに足りない機能として説明している人も見かけますがそれに近いかも知れません。
https://note.com/masayamori/n/n34df50d83489
ですのでLLMが来れない部分、つまりソフトウェアやハードウェアの内部をモデル化して抽象的な話をする事について価値を出していけるよう学習内容を考えていくのが良いと思います。
それはそれとしてコードレビューを通過するようなまともなコードというのは大体パターンがあるので(配列全体を回るときは範囲イテレート文を使え、とか)模様のような決まりのあるコードパターンを書くときはLLMが大いに助けになるときはあると思います。「ブロックごとコード補完が来た」という話は今もcopilotでよく見かける話でこういうのは早期から使い慣れておくのがおすすめです。