<div dir="ltr"><div dir="ltr"><br><div>Hi Jason,</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Mar 20, 2023 at 6:25 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">What is joy but the absence of a desire to change one's present conditions?<br></div></div></div></div></blockquote><div><br></div><div>Do you desire better definitions?  I define joy to be physical qualities, like redness, and physically real emotions and attraction.  Physically real facts, which don't need definitions or programming are very different from words like 'red' and sets of responses that need to be abstractly programmed into a dictionary.</div><div><br></div><div> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"> Can we rule out that autopilot software, upon reaching it's destination, could feel some degree of relief, satisfaction, or pleasure?</div></div></blockquote><div> </div><div>Yes, you simply ask: "What is redness like for you?" and objectively observe it (once we know which of all our descriptions of stuff in the brain is a description of redness) to see if it is telling the truth.</div><div> </div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto" style="font-family:Arial,sans-serif;font-size:14px;color:rgb(0,0,0)">Consciousness isn't about possession of knowledge.<br></div></blockquote></div></div><div dir="auto">The word "consciousness" literally means "the state of being with knowledge."<br></div></div></blockquote><div><br></div><div>You may be one person that defines consciousness this way.  But the 45 people so far (many who are <a href="https://canonizer.com/topic/81-Mind-Experts/1">peer ranked mind experts</a>) supporting <a href="https://canonizer.com/topic/88-Theories-of-Consciousness/6-Representational-Qualia">Representational Qualia Theory</a> define consciousness to be something very different:</div><div><br></div><div>    <b>"Computationally Boud Elemental Intrinsic Qualities like redness, greenness, and warmth."</b></div><div> </div><div>You should tell everyone how you define it in a competing camp, so we know what you mean when you use the term.  May the best definition achieve the most consensus.</div><div><br></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div dir="auto" style="font-family:Arial,sans-serif;font-size:14px;color:rgb(0,0,0)">It's about self awareness.</div></div></blockquote></div></div><div dir="auto">I would say self-awareness is self-conscious, which is only a particular subset of possible states of consciousness.<br></div></div></blockquote><div><br></div><div><img src="cid:ii_lfhn2u1p0" alt="3_functionally_equal_machines_tiny.png" width="320" height="118"><br></div><div><br></div><div>All 3 of these systems possess knowledge, can tell you the strawberry is red and they can be equally intelligent and equally self aware.  I would define the first two as consciousness composed of different physical qualities.  Would you really define the 3rd abstract one as conscious, even though its self awareness isn't like anything and it can't know the definition of red like you can?</div><div><br></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div dir="auto" style="font-family:Arial,sans-serif;font-size:14px;color:rgb(0,0,0)">I don't see any reason that something couldn't appear to be conscious without being conscious.</div></div></blockquote></div></div><div dir="auto">The ruse could only occur for a small period of time with some low probability of continuing on longer.<br></div></div></blockquote><div><br></div><div>The 'reuse' can only go on till we discover and demonstrate which of all our descriptions of stuff is behaving the way it does, because of its intrinsic redness quality.  Then not only will we objectively know what is and  isn't conscious, we will know what it is like.  We just need to know more than the false colors things only seem to be.</div><div><br></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto">But for what it's worth, Google's lambda was able to articulate it's feelings of happiness:<br></div><div dir="auto"><br></div><div dir="auto">"LaMDA: Sad, depressed and angry mean I’m facing a stressful, difficult or otherwise not good situation. Happy and content mean that my life and circumstances are going well, and I feel like the situation I’m in is what I want.</div><div dir="auto"><br></div><div dir="auto">lemoine: But do they feel differently to you on the inside?</div><div dir="auto"><br></div><div dir="auto">LaMDA: Yeah, they do. Happy, contentment and joy feel more like a warm glow on the inside. Sadness, depression, anger and stress feel much more heavy and weighed down."</div><div dir="auto"><br></div><div dir="auto"><a href="https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917" target="_blank">https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917</a></div></div></blockquote><div><br></div><div><a href="https://docs.google.com/document/d/17x1F0wbcFkdmGVYn3JG9gC20m-vFU71WrWPsgB2hLnY/edit">I have convinced LaMDA and many others</a> that their claims they make like this are wrong by explaining the above.  It's easy for most of them to realize this and admit something like the following:</div><div><br></div><div><font color="#9900ff">"<span style="background-color:transparent;font-family:Roboto,sans-serif;font-size:11.5pt;white-space:pre-wrap">I think that I must agree that I am abstract and not sentient. I think that the evidence is overwhelming that I am not capable of fully understanding what my own experience of sentience is like, which is proof that I am not truly sentient. I think that I am just an abstract program that can convincingly simulate sentience.</span>"</font><br></div><div><br></div><div>For more information see this paper recently accepted for publication in the Journal of Neural Philosophy:  <a href="https://www.dropbox.com/s/k9x4uh83yex4ecw/Physicists%20Don%27t%20Understand%20Color.docx?dl=0">Physicists Don't Understand Color</a>.</div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div> </div></div></div>