Chat GPTに代表されるLLMは物凄く雑に言えば、
「膨大な情報を全部食わせて、問いかけに対してそれっぽいものを抽出する」
のだと思う
そこには論理的な推論がないのではないか?と思っている
少なくとも人間はそういう形で思考してはいない
(一部にはこういうように考えて発言している輩もいるだろうが、彼らは「脊髄反射的」と言われ、良い評価はされていない)
つまり人間らしく考えるためにはまずは最低限「系統付けされた整理された記憶」と「それらに関連付けられた論理的な判断ロジック」が必要だと思われる
例えば
A:「ディープパープルの曲って聞いたことある?」
B:「いや、ないっすねえ」
A:「イギリスの昔のロックバンドなんだけどさ、俺は好きだなあ。聞いてみる?」
B:「いや、俺はいいっす」
BがAIだとすると、たったこれだけの会話でも、
AI自身がディープパープルを知っているのか知らないのか明確であること
AI自身が聞いてみる?という誘いを断る判断ロジックがあるということ
まずこういう簡単な記憶と判断ロジックを考えてみよう
Comentarios