<div dir="ltr"><div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Sat, May 9, 2026 at 12:00 PM Brent Allsop via extropy-chat <</span><a href="mailto:extropy-chat@lists.extropy.org" target="_blank" style="font-family:Arial,Helvetica,sans-serif">extropy-chat@lists.extropy.org</a><span style="font-family:Arial,Helvetica,sans-serif">> wrote:</span></div></div><div class="gmail_quote"><div dir="ltr"><div><br></div></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div dir="ltr" class="gmail_attr"></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr"><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">>> </span>David Chalmers wanted to know why the brain’s behavior is accompanied by experience at all, but it seems to me that if Charles Darwin was right then there can be only one answer to that question, because consciousness is the inevitable byproduct of intelligence. That's because Natural Selection can't directly detect consciousness any better than we can detect it in other people, and nothing can select for something that it can't see. But <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">N</span>atural <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">S</span>election <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">CAN</span> see intelligent behavior. </b></font></div></div></div></blockquote><div><br></div><div><font size="4" face="georgia, serif"><i style=""><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>We've probably had this discussion before, </i></font></div></div></div></blockquote><div><br></div><div class="gmail_default" style=""><font size="4" style="" face="tahoma, sans-serif"><b style="">Yep.</b></font></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>but I disagree that consciousness is the inevitable byproduct of intelligence.  There are clearly multiple ways to achieve intelligence. </i></font></div></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>Clearly?<span class="gmail_default" style="font-family:arial,helvetica,sans-serif"> </span>No, that is not clear at all<span class="gmail_default" style="font-family:arial,helvetica,sans-serif"> </span><span class="gmail_default" style="">!</span><span class="gmail_default" style=""> We have only found one way to successfully make an intelligence, neural networks, and that only happened about 10 years ago. </span></b></font></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><font size="4" face="georgia, serif"><i><span class="gmail_default" style="">> </span>abstract discrete logic gates</i></font></div></div></div></blockquote><div><br></div><font size="4" face="tahoma, sans-serif"><b>You can't make something from abstract parts, <span class="gmail_default" style="">you</span> need real physical parts, and Richard Feynman said "<i>What I cannot create, I do not understand</i>". All the intelligent computers that we've been able to make use neural networks and physical (not abstract) logic gates are some of the parts in <span class="gmail_default" style="">a </span>neural network. So logically your default position when you encounter a computer that is just as smart or smarter than you <span class="gmail_default" style="">should be</span> that it is <span class="gmail_default" style="">at least</span> as conscious as you are. </b></font></div><div class="gmail_quote"><font size="4" face="tahoma, sans-serif"><b><br></b></font></div><div class="gmail_quote"><font size="4" face="tahoma, sans-serif"><b>And we should hope that the computer is doing the same thing<span class="gmail_default" style="">, is giving you the benefit of the doubt</span> and is assuming that you are <span class="gmail_default" style="">also </span>conscious. Ultimately it's not gonna make much difference if humans believe that computers are conscious or not, but it will make a <span class="gmail_default" style="">very </span>big difference if intelligent computers believe that humans are just stochastic parrots with no more consciousness than a rock.<span class="gmail_default" style=""> If that's what they believe then we are in big trouble. </span></b></font><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>and running on physical phenomenal qualities being two very different types. </i></font></div></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default">P</span>hysical phenomenal qualities<span class="gmail_default">? If an old fashioned vacuum tube computer says that 2+2 =4 and a modern solid state computer also says that 2+2=4, is the vacuum 4 the same as the solid state 4?</span></b></font></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><font size="4" face="georgia, serif"><i> <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>If one is more efficient than the other, evolution will naturally select for that.</i></font></div></div></div></blockquote><div><br></div><font size="4" face="tahoma, sans-serif"><b>Human engineers would be even more likely to find the most efficient and simplest way to make an intelligence. I'm glad to see that you believe consciousness was produced by random mutation and natural selection, but apparently you don't believe consciousness is the inevitable byproduct of intelligent behavior, therefore I want to ask you a very important question. Do you believe that your fellow human beings are conscious when they are sleeping or under anesthesia or dead? I don't because when they are in any of those conditions they are not behaving very intelligently, but I'd like to know what you believe.</b></font><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><font size="4" face="georgia, serif"><i>  <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>You always seem to ignore the fact that the word 'red' is nothing like a redness quality. </i></font></div></div></div></blockquote><div> </div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style="">I have always known the difference between a wavelength and a </span>qualia<span class="gmail_default" style="">. </span>You seem to think this is a very deep<span class="gmail_default" style=""> </span>concept. It is not.<span class="gmail_default" style=""> </span> </b></font></div><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>A redness quality will never be the byproduct of an abstract word like red.</i></font></div></div></div></blockquote><div><br></div><div class="gmail_default" style=""><font size="4"><b><font style="" face="tahoma, sans-serif">The word is abstract but the </font><span style="font-family:tahoma,sans-serif">qualia<span class="gmail_default" style=""> quality is not??</span></span></b></font></div><div class="gmail_default" style=""><font size="4"><b><span style="font-family:tahoma,sans-serif"><span class="gmail_default" style=""><br></span></span></b></font></div><div class="gmail_default" style=""><font size="4"><b><span style="font-family:tahoma,sans-serif"><span class="gmail_default" style="">John K Clark</span></span></b></font></div><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div><br></div><div><br></div><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr"><font size="4" face="tahoma, sans-serif"><b><br></b></font></div><div dir="ltr"><font size="4" face="tahoma, sans-serif"><b>Chalmers also claimed that even after hypothetically accounting for our entire behavior, and for all our reports about our inner life, there would still be an explanatory gap between brain processes and experience; and I agree with Chalmers about that because any iterative sequence of "why" questions will either go on forever or terminate in a brute fact, such as consciousness is the way data feels when it is being processed intelligently.  </b></font></div><div dir="ltr"><font size="4" face="tahoma, sans-serif"><b><br></b></font></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default">John K Clark</span><br></b></font></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br></blockquote></div></div></div></blockquote></div></div>
</blockquote></div></div>
</div>