<div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr">On Mon, Oct 12, 2020 at 12:04 PM Dylan Distasio via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">The ability to construct meaningful models of reality and understand cause and effect seem to be two of the largest missing ingredients in getting to some kind of generalized/strong AI.   There is clearly something missing in the current approaches in terms of how human beings learn and model reality.  I think unraveling how memory actually works in a brain would go a long way towards figuring out these other two issues. </div></blockquote><div><br></div><div>As a programmer, I couldn't help thinking about how I'd attempt to implement AI, even though I never formally studied it. Most or all of the attempts I've seen lack an overarching system of motivation. We're motivated as infants by hunger, comfort, familiarity, understanding, etc.. Communication consists primarily of crying when a need isn't being met. Over time, we learn that understanding things and communicating our desires can satisfy our needs better and more effectively. </div><div><br></div><div>I think we need a basic learning mechanism coupled with a motivational system that rewards learning.</div><div><br></div><div>But then, maybe motivation can be hardcoded.</div><div><br></div><div>At any rate, the basic learning mechanism is the key: taking audiovisual input and building an understanding of it that can be used to predict outcomes and achieve desired results.</div><div><br></div><div>-Dave</div></div></div></div></div></div>