日記/2007-01-14 のバックアップ(No.2)

お名前:

ふと気が付いたんですが。

いろいろと野心的な機能を組み込んでいる可能な限りAI
今までのAIでやっていない機能をさまざまに搭載しているこのAI、感心しながら見ています。
で、ですね。
なんでそんなにいろんなことをできるのかな?
・・・そう考えていて、根底となる方針の差に気が付きました。

一言で言ってしまうと、ですね。
「誤判定した場合、それをどう扱うか」という判断・ポリシーレベルの差、ではないかと。

どういうことかというと。
Glenelgでの方針は、「誤判定は常に問題⇒だからやらない」。
それに対して「可能な限りAI」では「誤判定してもいいケースもあるんじゃない?」。
そういう差があるように感じました。

友瀬は「適切な情報がない(適切な判断ができない)モノは対処しない」という方針で設計しているが故に、他のAIでやっていてもやらない機能も多いです。
が、現実問題として、人間だって操作ミス・判断ミスはするのですから、AIがミスしたっていいじゃないか、という考え方はアリだと思います。
ミスをしたら、手動操作でリカバリーすればいいわけですから。
それによってより便利な機能が作れるのなら、トレードオフする価値は十分あるでしょう。

このあたりは完全にポリシーの差だと思うので、どっちがいい、というような比較をするようなものではありません。
ただまあ、そういう意識を持ってAIは使うべき、でしょうね。