<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><font size="2"><span style="font-family:arial,helvetica,sans-serif">On Mon, Jan 23, 2017 at 2:20 PM, William Flynn Wallace <span dir="ltr"><<a href="mailto:foozler83@gmail.com" target="_blank">foozler83@gmail.com</a>></span> wrote:<br></span></font><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><font size="2"><span style="font-family:arial,helvetica,sans-serif"><span style="color:rgb(34,34,34)">Here's what gets me:  millions of videos and film depicting just about everything.  Why not take from those shots the code for what you want;  that is, if you want some virtual reality robot to walk like a person, then why not get a video of a person walking and take the code from there, eliminating superfluous actions?  I have seen a person hooked up to all sorts of sensors that record his movements which I suppose is then turned into code.  I don't see why this is necessary.</span></span></font></div></blockquote><div><font size="2"><span style="font-family:arial,helvetica,sans-serif"><br></span></font></div><div><font size="2"><span style="font-family:arial,helvetica,sans-serif">One reason is that video is only 2D. Another is that data captured via other means can be more precise and at a higher rate. A third is that even with unlimited data, emulating some things is incredibly difficult. For example, there are countless videos of people talking. The biomechanics are well understood. But no visual simulation of a person speaking has ever done a really convincing job of it. <br></span></font><font size="2"><span style="font-family:arial,helvetica,sans-serif"></span></font><br></div><div>-Dave<br></div><div><font size="2"><span style="font-family:arial,helvetica,sans-serif"></span></font></div></div></div></div>