top of page

系統付けられた記憶と判断が必要?

執筆者の写真: snackvirtualsnackvirtual

Chat GPTに代表されるLLMは物凄く雑に言えば、

「膨大な情報を全部食わせて、問いかけに対してそれっぽいものを抽出する」

のだと思う

そこには論理的な推論がないのではないか?と思っている

少なくとも人間はそういう形で思考してはいない

(一部にはこういうように考えて発言している輩もいるだろうが、彼らは「脊髄反射的」と言われ、良い評価はされていない)


つまり人間らしく考えるためにはまずは最低限「系統付けされた整理された記憶」と「それらに関連付けられた論理的な判断ロジック」が必要だと思われる


例えば

A:「ディープパープルの曲って聞いたことある?」

B:「いや、ないっすねえ」

A:「イギリスの昔のロックバンドなんだけどさ、俺は好きだなあ。聞いてみる?」

B:「いや、俺はいいっす」


BがAIだとすると、たったこれだけの会話でも、

  • AI自身がディープパープルを知っているのか知らないのか明確であること

  • AI自身が聞いてみる?という誘いを断る判断ロジックがあるということ


まずこういう簡単な記憶と判断ロジックを考えてみよう






閲覧数:0回0件のコメント

最新記事

すべて表示

Comentarios


bottom of page