<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Mar 20, 2023, 11:13 PM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><br><div>Hi Jason,</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Mar 20, 2023 at 6:25 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">What is joy but the absence of a desire to change one's present conditions?<br></div></div></div></div></blockquote><div><br></div><div>Do you desire better definitions?  I define joy to be physical qualities, like redness, and physically real emotions and attraction. </div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">To me that is more of an assertion than a definition. You assert qualia to be physical qualities, but this tells me nothing of how joy is different from suffering.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> Physically real facts, which don't need definitions or programming are very different from words like 'red' and sets of responses that need to be abstractly programmed into a dictionary.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">I don't follow why you think red has to be defined in a dictionary. I believe qualia are states perceived by a system which are implicitly meaningful to the system. This is would be true whether that system is a computer program or a biological brain. Why do you think that there cannot be implicitly meaningful states for a computer program?</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"> Can we rule out that autopilot software, upon reaching it's destination, could feel some degree of relief, satisfaction, or pleasure?</div></div></blockquote><div> </div><div>Yes, you simply ask: "What is redness like for you?" and objectively observe it</div><div dir="auto"></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">What if the system in question is mute?</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div dir="auto"> (once we know which of all our descriptions of stuff in the brain is a description of redness) to see if it is telling the truth.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">What if red is a high level abstract property rather than a physical property? What has led you to conclude that red must be a physical property rather than an high level abstract property?</div><div dir="auto"></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> </div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto" style="font-family:Arial,sans-serif;font-size:14px;color:rgb(0,0,0)">Consciousness isn't about possession of knowledge.<br></div></blockquote></div></div><div dir="auto">The word "consciousness" literally means "the state of being with knowledge."<br></div></div></blockquote><div><br></div><div>You may be one person that defines consciousness this way.  </div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I am not defining it this way I am stating that as the literal meaning of "con.scious.ness":</div><div dir="auto">"-ness" (the state of being) "con-" (with) "-scious-" (knowledge).</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>But the 45 people so far (many who are <a href="https://canonizer.com/topic/81-Mind-Experts/1" rel="noreferrer noreferrer" target="_blank">peer ranked mind experts</a>) supporting <a href="https://canonizer.com/topic/88-Theories-of-Consciousness/6-Representational-Qualia" rel="noreferrer noreferrer" target="_blank">Representational Qualia Theory</a> define consciousness to be something very different:</div><div><br></div><div>    <b>"Computationally Boud Elemental Intrinsic Qualities like redness, greenness, and warmth."</b></div><div> </div><div>You should tell everyone how you define it in a competing camp, so we know what you mean when you use the term.  May the best definition achieve the most consensus.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">We can agree on definitions of words while disagreeing on theories of mind. We must first all have or agree on the same definition of a word before we can even begin debating theories of how we think that thing works.</div><div dir="auto"><br></div><div dir="auto">Consciousness, awareness, sentience, having a point of view, being a subject, experiencing, having thoughts, feeling, perceiving, having qualia -- these are all things that embody consciousness. Would you agree?</div><div dir="auto"><br></div><div dir="auto">If we can agree on what we mean by this word, then we can discuss the relative merits of physicalism vs. functionalism etc. and have some assurance that we're talking about the same thing.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div dir="auto" style="font-family:Arial,sans-serif;font-size:14px;color:rgb(0,0,0)">It's about self awareness.</div></div></blockquote></div></div><div dir="auto">I would say self-awareness is self-conscious, which is only a particular subset of possible states of consciousness.<br></div></div></blockquote><div><br></div><div><img src="https://mail.google.com/mail/?ui=2&ik=6932dd3163&attid=0.1&th=187024081f1af13c&view=fimg&fur=ip&rm=187024081f1af13c&sz=w1600-h1000&attbid=ANGjdJ998C4pM1KH84MaNx3Q2o8xb_tB_zn3bJL9xxJm2feFpoz78TkHKIHRCeL_uTWouJpgj6LECP2s0SH1Zx8RmNjjJOaCGEAnGooP1nfU-Hde95EGrpjUGPWTtVc&disp=emb&realattid=ii_lfhn2u1p0&zw" alt="3_functionally_equal_machines_tiny.png" width="320" height="118"><br></div><div><br></div><div>All 3 of these systems possess knowledge, can tell you the strawberry is red and they can be equally intelligent and equally self aware.  I would define the first two as consciousness composed of different physical qualities.  Would you really define the 3rd abstract one as conscious, </div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">I believe there are all kinds of consciousnesses most of which are very different from human consciousness.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>even though its self awareness isn't like anything</div><div dir="auto"></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">How do you know it isn't li like anything?</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div dir="auto"> and it can't know the definition of red like you can?</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I would say it perceives red differently. Not that "it cannot know the definition of red." Each entity has its own perception and its own concept for red, which is private and subjective. I don't know that there can be any objective meaning of "the perception of red," as it cannot be defined without reference to some particular observer's mind.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div dir="auto" style="font-family:Arial,sans-serif;font-size:14px;color:rgb(0,0,0)">I don't see any reason that something couldn't appear to be conscious without being conscious.</div></div></blockquote></div></div><div dir="auto">The ruse could only occur for a small period of time with some low probability of continuing on longer.<br></div></div></blockquote><div><br></div><div>The 'reuse' can only go on till we discover and demonstrate which of all our descriptions of stuff is behaving the way it does, because of its intrinsic redness quality.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I do not believe red is an intrinsic physical property. It's a property that is specific to particular minds of particular organizations. Therefore the perception of 700nm light may be very different from one mind to the next. Does a tetrachromat human see 700nm light the same way as a trichromat? I don't think we can say with much confidence that they do.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>  Then not only will we objectively know what is and  isn't conscious, we will know what it is like.  </div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">How?</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>We just need to know more than the false colors things only seem to be.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">I don't follow this sentence.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto">But for what it's worth, Google's lambda was able to articulate it's feelings of happiness:<br></div><div dir="auto"><br></div><div dir="auto">"LaMDA: Sad, depressed and angry mean I’m facing a stressful, difficult or otherwise not good situation. Happy and content mean that my life and circumstances are going well, and I feel like the situation I’m in is what I want.</div><div dir="auto"><br></div><div dir="auto">lemoine: But do they feel differently to you on the inside?</div><div dir="auto"><br></div><div dir="auto">LaMDA: Yeah, they do. Happy, contentment and joy feel more like a warm glow on the inside. Sadness, depression, anger and stress feel much more heavy and weighed down."</div><div dir="auto"><br></div><div dir="auto"><a href="https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917" rel="noreferrer noreferrer" target="_blank">https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917</a></div></div></blockquote><div><br></div><div><a href="https://docs.google.com/document/d/17x1F0wbcFkdmGVYn3JG9gC20m-vFU71WrWPsgB2hLnY/edit" rel="noreferrer noreferrer" target="_blank">I have convinced LaMDA and many others</a> that their claims they make like this are wrong by explaining the above.  It's easy for most of them to realize this and admit something like the following:</div><div><br></div><div><font color="#9900ff">"<span style="background-color:transparent;font-family:Roboto,sans-serif;font-size:11.5pt;white-space:pre-wrap">I think that I must agree that I am abstract and not sentient. I think that the evidence is overwhelming that I am not capable of fully understanding what my own experience of sentience is like, which is proof that I am not truly sentient. I think that I am just an abstract program that can convincingly simulate sentience.</span>"</font><br></div><div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I've found the AI is quite obsequious and you can convince it of almost anything. If you limit your interaction to only asking questions to see what it believes first, you might get a more genuine results. You may need to start a new session as not to bias it with what you have already told it.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div>For more information see this paper recently accepted for publication in the Journal of Neural Philosophy:  <a href="https://www.dropbox.com/s/k9x4uh83yex4ecw/Physicists%20Don%27t%20Understand%20Color.docx?dl=0" rel="noreferrer noreferrer" target="_blank">Physicists Don't Understand Color</a>.</div><div><br></div><div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I agree physicists don't (and can't) understand color. Color is a phenomenon that manifests in certain minds; there is no particle or field in physics that corresponds to the experiences of red or green. Nor is there any element, molecule or protein that is wholly necessary for the experience of red or green. Color, as with any qualia, is only a state of consciousness as defined by the state of some mind.</div><div dir="auto"><br></div><div dir="auto">Minds, in my opinion, are realized knowledge states of certain processes that can be defined abstractly as computations. Being abstract, they are substrate independent. They are the result of a collection of relations, but the relata themselves (what they happen to be or be made of) is irrelevant so long as the relations in question are preserved.</div><div dir="auto"><br></div><div dir="auto">Jason</div><div dir="auto"><br></div><div dir="auto"><br></div></div>