補注2024 言語の複雑性をめぐる最近の話題
5.2 節では, 自然言語はその裏にある自然知能が生成するものだが, しかし言語は知能と外界のインターフェースに過ぎない, 言語を使って考えると思っているときは考えた結果の表現を工夫しているだけではないか, 言語を操るのに知能のフルパワーはいらない, というようなことを書いた. つまり, 言語は自然知能という複雑な系が生成したものではあるが, 思考を支えるわけでもなく, 真の複雑系というよりその雛形だろう. これを支持する最近の論文を以下に紹介する.
まず言語はIO に過ぎないと主張する大変はっきりとした解説が出た:
Fedorenko et al., Language is primarily a tool for communication rather than thought, Nature 630, 575 (2024). 脳の部位で言語を操るところは思考の座とは別である.
これはこの頃のChatGPT のような大規模言語モデル(LLM) で明らかになりつつあることと整合的である.
まず, LLM は言語をきちんと捉えているか?少なくとも今までのLLM は文法を理解しているわけではない.
Dentella, et al., Language Models reveals low language accuracy, absence of response
stability, and a yes-response bias. Proc. Natl. Acad. Sci. 120, e2309583120
(2023).
L. L. Moro et al., Large languages, impossible languages and human brains, Cortex
167, 82 (2023).
LLM から紡ぎ出される文章の本性はブルシット(善意も悪意もない意味のない戯言)である:
M. T. Hicks et al. ChatGPT is bullshit, Ethic. Inf. Tech., 26, 38 (2024).
考えてみると, 人間の言語の本質はそもそもブルシットなのだ. だが, いつもブルシットを発するだけでは聞いてくれる人もいなくなる. そこで人間が使う言語には言語そのものには本来どうでもいい「真理」や「善意」が染み付く.その結果,
Aharoni et al., Attributions toward artificial agents in a modified Moral Turing Test Sci. Rep. 14, 8458 (2024).
AI の倫理的判断は人間の判断より理性的で良いと多くの人が判定する. ChatGPTのような言語だけを素材にしたAI でも判断がかなりまともになる.
今までにはっきりしていることは
G. Sartori & G. Orro Language models and psychological sciences Front. Psychol. 14, 1279317 (2023)
にあるように, 人間が今までに生産した文章で使えるものほぼすべてを使った結果であるLLM は人間の連想パタンはよく再現するということだ. つまり, 元になる複雑な系から生成されたという意味で, ChatGPT は初
めての人工複雑系(の雛形)かもしれない.