<div dir="ltr"><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Sep 30, 2014 at 11:59 AM, Anders Sandberg <span dir="ltr"><<a href="mailto:anders@aleph.se" target="_blank">anders@aleph.se</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><br></div><div>The problem is that if the outcome space is not well defined, the entire edifice built on the Kolmogorov axioms crashes. In most models and examples we use the outcome space is well defined: ravens have colours. But what if I show you a raven whose colour was *fish*? (or colourless green?</div></blockquote></div><br><br><br></div><div class="gmail_extra">Sure. That's why we speak about a great amount of variables. What if the input and output of our learner will be video and audio? I don't see any obstacle implementing it. We got the mathematical promises. We seem to got enough computational power. We got plenty of algorithms. Just two things need to be solved: how to train this brain (it's apparently more difficult than all mentioned tasks), and, who will convince investors for such a project? :)<br><br></div><div class="gmail_extra">Generalization error bounds, VC Dimension etc. are unfortunately not informative in Google search. An informative example I quickly found online is <a href="https://cs.uwaterloo.ca/~shai/Chapters_4_CS886.pdf">here</a>, see corollary 1 on page 27.<br></div></div>