日記/2007-01-14 のバックアップソース(No.3)

お名前:
以下「ふと気が付いたんですが」に書いたところで、可能な限りの人から[[突っ込み>http://plaza.rakuten.co.jp/horoRAG/diary/200701140001/]]があったので、追記。

まず読んでくださる皆さんの誤解がないように:下記「ふと気が付いたんですが」以下の部分は、友瀬が「感じた」ことであって、可能な限りAIが「絶対そういうポリシーで作られている」と言っているわけではないです。~
で、つっこみの要点はまさにここの部分で、~
 実際にバグとも言えるような、誤判定を容認するいい加減な考え方でAIを作っているわけではありません
 (以上「Glenelgさんに返信」から引用)
というところだと思います。~
確かにそうですね。これは完全に友瀬の書き方不良です。~
大変失礼しました。

 机上ではわからない部分って多いわけで先ずは作ってみる。
 それで実用上問題があるなら消せばいい。
 (以上「Glenelgさんに返信」から引用)
この考え方で「お試し版」公開されているものが、割と「完成した」って感じで公開しているように見えてました。~
だから「誤検知しそうだけどいいや」なんだろうな、って思えてました。

友瀬が言いたかったのは、
 100回の試行に対し誤判定が一回なら、ホムAI程度の軽いお遊びソフトなら実用的とも言えるでしょう。
 (以上「Glenelgさんに返信」から引用)
という感じの話。~
「(ある程度率が低ければ)判断ミスしてもいいや」って結構アリかな、ってまじに思った。

というわけで、以下ちと微妙・アレな内容ですが、削除するのもかえって失礼なので。
----

ふと気が付いたんですが。

いろいろと野心的な機能を組み込んでいる[[可能な限りAI>http://plaza.rakuten.co.jp/horoRAG/]]。~
今までのAIでやっていない機能をさまざまに搭載しているこのAI、感心しながら見ています。~
で、ですね。~
なんでそんなにいろんなことをできるのかな?~
・・・そう考えていて、根底となる方針の差に気が付きました。

一言で言ってしまうと、ですね。~
「誤判定した場合、それをどう扱うか」という判断・ポリシーレベルの差、ではないかと。

どういうことかというと。~
Glenelgでの方針は、「誤判定は常に問題⇒だからやらない」。~
それに対して「可能な限りAI」では「誤判定してもいいケースもあるんじゃない?」。~
そういう差があるように感じました。

友瀬は「適切な情報がない(適切な判断ができない)モノは対処しない」という方針で設計しているが故に、他のAIでやっていてもやらない機能も多いです。~
が、現実問題として、人間だって操作ミス・判断ミスはするのですから、AIがミスしたっていいじゃないか、という考え方はアリだと思います。~
ミスをしたら、手動操作でリカバリーすればいいわけですから。~
それによってより便利な機能が作れるのなら、トレードオフする価値は十分あるでしょう。

このあたりは完全にポリシーの差だと思うので、どっちがいい、というような比較をするようなものではありません。~
ただまあ、そういう意識を持ってAIは使うべき、でしょうね。