<div dir="auto"><div>Brent-<div dir="auto"><br></div><div dir="auto">The binding you're speaking of can be fully explained by neuronal wiring/circuits/networks.  You don't need your definition of where qualia sit to explain why we don't have access to subconscious information. </div><div dir="auto"><br></div><div dir="auto">Have you looked into brain damage of various areas and the outcomes in terms of your theory?</div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Feb 16, 2020, 11:10 AM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br><div>Hi John,</div><div>The goal here is to understand a fairly simple idea, which you said you are still struggling with.</div><div>It's probably because when I try to describe it, you keep ignoring what is important and going off on completely unrelated tangents.</div><div><br></div><div>The idea is the binding of multiple qualia, like redness and grenness (and a bunch of other knowledge) to make a bound composite experience where you are consciously aware of all of that.  The reason you are not aware of information in the subconscious (or anywhere else outside of what you are consciously aware of), is because it is not "bound" into your awareness, the same way all the stuff you are aware of is.</div><div><br></div><div>It's not about evolution (other than in a tangential way), it's about whether you are consciousness aware of it or not.</div><div><br></div><div>Brent</div><div><br></div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Feb 16, 2020 at 4:32 AM John Clark via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Sat, Feb 15, 2020 at 8:08 PM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:</span><br></div></div><div class="gmail_quote"><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> <i></i></span><i>Hi John,<span class="gmail_default" style="font-family:arial,helvetica,sans-serif"> </span></i><i>What does evolution and all you are saying here, have to do with whether something is bound into you composit conscious awareness or not?</i></div></blockquote><div><br></div><font size="4">Can intelligent behavior <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">exist </span>without consciousness or can <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">it</span> not?</font></div><div class="gmail_quote"><font size="4"><br>If <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">it</span> can then <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">consciousness is not needed from </span>Evolution<span class="gmail_default" style="font-family:arial,helvetica,sans-serif">'s point of view and so </span> could not have produced it. So how did a conscious being like you get here?</font></div><div class="gmail_quote"><font size="4"><br>If you can not <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">have intelligent behavior without consciousness </span>then </font><span class="gmail_default" style="font-size:large;font-family:arial,helvetica,sans-serif">logically </span><font size="4">you'd have no more reason to think a AI was a zombie than to think a intelligent human was</font><span class="gmail_default"><font face="arial, helvetica, sans-serif" size="4"> a zombie. As for me I don't believe in zombies. </font></span></div><div class="gmail_quote"><span class="gmail_default"><font face="arial, helvetica, sans-serif" size="4"><br></font></span></div><div class="gmail_quote"><span class="gmail_default"><font face="arial, helvetica, sans-serif" size="4"> John K Clark</font></span></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div></div>