<div class="gmail_quote">On 6 March 2012 21:04, Kelly Anderson <span dir="ltr"><<a href="mailto:kellycoinguy@gmail.com">kellycoinguy@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
This might have been using Markov chains.. a really primitive kind of<br>
limited context. When I say primitive, I mean simple to implement, not<br>
ineffective. Any kind of context is absolutely critical to getting<br>
good rates of character recognition and Markov chains is a good way to<br>
easily put in a little context.<br></blockquote><div><br>Yes. This is still the case with computer dictation AFAIK.<br> <br></div><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">


To see how this works, consider that in English, the letter Q is<br>
nearly always followed by the letter U. </blockquote><div><br>The only exception, as for other matters, being Al Qaeda... :-)<br> <br></div><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">

We humans are very good at text recognition because of the context. If<br>
you present humans with the text out of context, they do little better<br>
than computers with no context. Give humans the context, and they are<br>
much better than humans.<br></blockquote><div><br>I also understand that in spoken language we actually hear no more than 20% of uttered phonemes in mormal circumstances. This is of course is even more of a disaster for languages that have a lot of omophones (say, Japanese). Yet, we manage to put everything in context.  <br clear="all">
</div><br></div><br>-- <br>Stefano Vaj<br>