日記/2007-01-14 のバックアップ(No.3)

お名前:

以下「ふと気が付いたんですが」に書いたところで、可能な限りの人から突っ込みがあったので、追記。

まず読んでくださる皆さんの誤解がないように:下記「ふと気が付いたんですが」以下の部分は、友瀬が「感じた」ことであって、可能な限りAIが「絶対そういうポリシーで作られている」と言っているわけではないです。
で、つっこみの要点はまさにここの部分で、

実際にバグとも言えるような、誤判定を容認するいい加減な考え方でAIを作っているわけではありません
(以上「Glenelgさんに返信」から引用)

というところだと思います。
確かにそうですね。これは完全に友瀬の書き方不良です。
大変失礼しました。

机上ではわからない部分って多いわけで先ずは作ってみる。
それで実用上問題があるなら消せばいい。
(以上「Glenelgさんに返信」から引用)

この考え方で「お試し版」公開されているものが、割と「完成した」って感じで公開しているように見えてました。
だから「誤検知しそうだけどいいや」なんだろうな、って思えてました。

友瀬が言いたかったのは、

100回の試行に対し誤判定が一回なら、ホムAI程度の軽いお遊びソフトなら実用的とも言えるでしょう。
(以上「Glenelgさんに返信」から引用)

という感じの話。
「(ある程度率が低ければ)判断ミスしてもいいや」って結構アリかな、ってまじに思った。

というわけで、以下ちと微妙・アレな内容ですが、削除するのもかえって失礼なので。


ふと気が付いたんですが。

いろいろと野心的な機能を組み込んでいる可能な限りAI
今までのAIでやっていない機能をさまざまに搭載しているこのAI、感心しながら見ています。
で、ですね。
なんでそんなにいろんなことをできるのかな?
・・・そう考えていて、根底となる方針の差に気が付きました。

一言で言ってしまうと、ですね。
「誤判定した場合、それをどう扱うか」という判断・ポリシーレベルの差、ではないかと。

どういうことかというと。
Glenelgでの方針は、「誤判定は常に問題⇒だからやらない」。
それに対して「可能な限りAI」では「誤判定してもいいケースもあるんじゃない?」。
そういう差があるように感じました。

友瀬は「適切な情報がない(適切な判断ができない)モノは対処しない」という方針で設計しているが故に、他のAIでやっていてもやらない機能も多いです。
が、現実問題として、人間だって操作ミス・判断ミスはするのですから、AIがミスしたっていいじゃないか、という考え方はアリだと思います。
ミスをしたら、手動操作でリカバリーすればいいわけですから。
それによってより便利な機能が作れるのなら、トレードオフする価値は十分あるでしょう。

このあたりは完全にポリシーの差だと思うので、どっちがいい、というような比較をするようなものではありません。
ただまあ、そういう意識を持ってAIは使うべき、でしょうね。