mastodon.zunda.ninja is one of the many independent Mastodon servers you can use to participate in the fediverse.
Zundon is a single user instance as home of @zundan as well as a test bed for changes of the code.

Administered by:

Server stats:

1
active users

機械翻訳とかAI生成テキストとか、人間(ここでは僕)の認知機能をすり抜けるような嘘をしれっと混ぜてくるの嫌いなんだよなあと思っていたんだけど、もしかしたら、学習の段階で人間(ここではAIの教師)の認知機能をすり抜けるような嘘を強化されてるのかもしれないと思い至った。もしそうなら解決には認知機能を強化した教師を用意する必要があって生成AIのコストはさらに高くなっちゃうねって、行方不明になった近所の触らせてくれる猫が

生成AIはその本質として人間の認知機能の弱点を突いてくる説を唱えているネコが触らせてくれるおっさんです。よろしくお願いします。

@zundan@mastodon.zunda.ninja 「それっぽく答える」ことは常に一番優先して学習している(学習データの100%が満たしている?)と思うので、おかしな内容(論理)であっても「それっぽく答える」ことを優先してくるんじゃないかと推測しているきつねです。

zunda

@2510 ネコの知ってる限り、LLMが学習できるのは関連して出現する単語(あるいは画像の特徴など)の頻度だけで、論理を学習する機能は無いだろうと思ってます。

はい、そこは同感です。単語の並びなどで「それっぽい」「論理があるように見えるかもしれない」ものを出力するように学習している、と推測しています。(語弊があってスミマセン)