落ち着いてください。ChatGPTが行っている事はスマホでもやっている予測入力の延長です。とにかく大量の文章を巨大な表現力(パラメータ)を持つ学習モデルに読ませたら、人間が長らくコンピュータに教えようとして四苦八苦していた「文脈」という概念を踏まえたように見える予測をするようになったので
ここから下はとある会話文です。
A「何でも質問してください」
B「(あなたの入力文)」
A「
という文章を与えてAの発言として予測された文章を会話っぽく見えるようなインタフェースで画面に出しているに過ぎません。前回の自分の返答も含む会話文ごと続く予測の入力に与えられるので文脈を踏まえたように見える予想すらできてしまいます(この文章「も」の話です)。ですが予測モデルの立場から見たらAの発言を予想しただけであり、Aが自分であるという自覚すらありません。よってその発言内容の責任を予測モデルに問うこと自体が筋違いと言わざるを得ません。
事象として喩えるならあなたがiPhoneを使ってメールを打っていたとして、入力予測に何故か罵倒語が提案されたのでそれで確定してメールを送りあなたの人間関係が損なわれたらAppleに責任を問えるでしょうか?おそらく無理です。入力予測に限らず漢字のかな変換にすら類似の話はあり得て、漢字の誤変換による錯誤の責任も利用者にあります。
将来的に何らかのブレークスルーが起きたら出力の責任をも製造元が持つLLMも現れるかも知れませんし、もし実現したら大変画期的な事ですがそうなるまではChatGPTは予測入力の延長でしかないと考えるのが順当だと思います。ですので原則としてChatGPTの出力は信用に値しませんし、ChatGPTによって出力させた文章を自分の文章だと言い張る人が現れたら文責はその人にあります。