日記/2007-01-14 のバックアップ差分(No.1)

お名前:

  • 追加された行はこの色です。
  • 削除された行はこの色です。
ふと気が付いたんですが。

いろいろと野心的な機能を組み込んでいる[[可能な限りAI>http://plaza.rakuten.co.jp/horoRAG/]]。~
今までのAIでやっていない機能をさまざまに搭載しているこのAI、なんでそんなにいろんなことをできるのかな?~
・・・そう考えていて、根底となる方針の差に気が付きました。

一言で言ってしまうと、ですね。~
「誤判定した場合、それをどう扱うか」という判断・ポリシーレベルの差、ではないかと。

どういうことかというと。~
Glenelgでの方針は、「誤判定は常に問題⇒だからやらない」。~
それに対して「可能な限りAI」では「誤判定してもいいケースもあるんじゃない?」。~
そういう差があるように感じました。

友瀬は「適切な情報がない(適切な判断ができない)モノは対処しない」という方針で設計しているが故に、他のAIでやっていてもやらない機能も多いです。~
が、現実問題として、人間だって操作ミス・判断ミスはするのですから、AIがミスしたっていいじゃないか、という考え方はアリだと思います。~
ミスをしたら、手動操作でリカバリーすればいいわけですから。

このあたりは完全にポリシーの差だと思うので、どっちがいい、というような比較をするようなものではありません。~
ただまあ、そういう意識を持ってAIは使うべき、でしょうね。