<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">
<html>
<head>
  <meta http-equiv="Content-Type" content="text/html;charset=ISO-8859-1">
  <title></title>
</head>
<body>
David Relson wrote: <br>
<br>
<blockquote type="cite">As you say, this process is learning and
extending bogofilter's vocabulary.  It also assumes bogofilter is
doing a good job (which it can do).  However, bogofilter can not be
all knowing, so there will be messages that are incorrectly
classified.  When bogofilter is first being used, the wordlists are
small, and bogofilter's accuracy is at its worst.  When using "-u",
the sysadmin <span class="moz-txt-underscore"><span class="moz-txt-tag">_</span>must<span
 class="moz-txt-tag">_</span></span> monitor what bogofilter is doing. 
When bogofilter makes a mistakes, the sysadmin needs to notifiy
bogofilter and have the message removed from one wordlist and added to
the other. <br>
</blockquote>
<br>
Just to chime in with a little personal experience... <br>
<br>
I have setup a system where -u is used starting with zero corpora.
Bogofilter assumes everything is "good" at first and as users start
fixing the false negatives, accuracy builds <b class="moz-txt-star"><span
 class="moz-txt-tag">*</span>very<span class="moz-txt-tag">*</span></b>
rapidly. Under this system I have only seen one false positive, and
chances are that one would have been classified that way even under a
highly trained and mature instance. <br>
<br>
In other words, even when bogofilter's accuracy is "at its worst", it
works very well and -u can be very useful if the surrounding system is
well thought out and you make it very easy for users to fix errors on
their own. <br>
<br>
Michael~ <br>
</body>
</html>