<div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Tue, Feb 11, 2020 at 7:01 PM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:</span><br></div></div><div class="gmail_quote"><br><font size="4">Hi <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">Brent</span></font></div><div class="gmail_quote"><font face="arial, helvetica, sans-serif"><br></font><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><font size="4"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">>> </span>Suppose there was a parallel Everettian reality that was exactly like our own except that the English language had developed slightly differently so that we called the color of the sky "red" and <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">the </span>color of a strawberry "blue", it wouldn't make any difference because the words chosen were arbitrary, the important thing is that the words <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">be</span> used consistently. And the same thing is true not only for words but for the red and blue qualia themselves. And that's why your color inversion experiment would result in precisely zero objective change in behavior and zero change in subjective feeling, you're experimental subject would have no way of even knowing you had done anything to him at all.</font></div></div></div></blockquote><div><br></div><div><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>This is all obviously true, and I've never disagreed with any of this. </i></div></div></div></blockquote><div><br></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><font size="4">So I guess you now agree we can learn nothing from your <span style="font-family:Arial,Helvetica,sans-serif">color inversion experiment. </span></font></div><div><font size="4"> </font></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>The important part isn't the fact that abstract words are arbitrary, what we are talking about is how do you define these arbitrary words. </i></div></div></div></blockquote><div><br></div><div class="gmail_default" style=""><font face="arial, helvetica, sans-serif"></font><font size="4">As I've said before, definitions are just words describing other words, so if your looking for the ultimate source of meaning you're not going to find it in a infinite loop, you'll find it in examples. Very young children become fluent in language at an astonishingly rapid rate and yet you don't find them reading dictionaries, but you do find them pointing to things and saying "what's that?"</font><font face="arial, helvetica, sans-serif">.  </font></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span><i>What are the different definition of redness and grenness, which we may both call "red"? </i></div></div></div></blockquote><div><br></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><font size="4">There are not different definitions of colors there are different examples of colors.</font></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><span style="font-size:large"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">>> </span>My axiom is that intelligent behavior implies consciousness,</span><br></div></div></div></blockquote><div><br></div><div><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>If that were true, then all 3 of <a href="https://docs.google.com/document/d/1YnTMoU2LKER78bjVJsGkxMsSwvhpPBJZvp9e2oJX9GA/edit?usp=sharing" target="_blank">these robots which are equally intelligent in their ability to pick strawberries</a> would be consciousness.  That is inconsistent with the fact that two of those robots have knowledge that is not physically arbitrary,</i></div></div></div></blockquote><div><br></div><font size="4">Yes both robot #1 and #2 will have knowledge that the light reflected from ripe strawberries is different from light reflected from unripe strawberries, and so it can engage in the intelligent behavior of picking the ripe but not the unripe ones. And there is nothing inherently red about glutamate and nothing inherently green about glycine, the chemicals are just arbitrary labels for a range of wavelengths in the electromagnetic spectrum, and so are the very words "red" and "green". So if you had a button that could instantly change one robot's arbitrary notation to the other's arbitrary notation unless the robot saw you push the button it would have no way of knowing any change had occurred and it's behavior would be identical. <br></font><div> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">></span> <i>the 3rd is, by design, is abstracted away from anything physically like anything in an arbitrary way.  And therefor isn't conscious.</i></div></div></div></blockquote><div><br></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><font size="4">I can't make heads or tails out of robot #3. You say:</font></div><div><br></div><div><span id="gmail-docs-internal-guid-07aa8bab-7fff-9301-e971-319bde01d322"><span style="font-size:12pt;font-family:"Times New Roman";color:rgb(0,0,0);background-color:transparent;font-variant-numeric:normal;font-variant-east-asian:normal;vertical-align:baseline;white-space:pre-wrap"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">"</span>Let’s engineer this robot’s knowledge to be abstracted away from any physical qualities.  It will use the number “1” to represent knowledge of red things, and “0” for knowledge of green things.<span class="gmail_default" style="font-family:arial,helvetica,sans-serif">"</span></span></span></div><div><span><span style="font-size:12pt;font-family:"Times New Roman";color:rgb(0,0,0);background-color:transparent;font-variant-numeric:normal;font-variant-east-asian:normal;vertical-align:baseline;white-space:pre-wrap"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif"><br></span></span></span></div><font size="4">But that's contradictory, the words "red" and "green" are just labels that a high level language like English uses to represent PHYSICAL QUALITIES, and a lower level language, the brain's assembly language so to speak (or maybe machine code), uses<span class="gmail_default" style="font-family:arial,helvetica,sans-serif"> </span>glutamate and glycine<span class="gmail_default" style=""><font face="arial, helvetica, sans-serif">. And light is a PHYSICAL QUALITY and whatever label a mind uses to represent it must also be physical.</font></span></font></div><div class="gmail_quote"><font size="4"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif"><br></span></font></div><div class="gmail_quote"><font size="4"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">You say:</span></font></div><div class="gmail_quote"><span id="gmail-docs-internal-guid-be500f07-7fff-588a-480d-70e0f5910337"><span style="font-family:"Times New Roman";color:rgb(0,0,0);background-color:transparent;font-variant-numeric:normal;font-variant-east-asian:normal;vertical-align:baseline;white-space:pre-wrap"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-size:12pt"></span><font size="4">"</font></span><font size="4">This robot has multiple diverse kinds of interpreting mechanisms<span class="gmail_default" style="font-family:arial,helvetica,sans-serif">"</span></font></span></span></div><div class="gmail_quote"><span><span style="font-size:12pt;font-family:"Times New Roman";color:rgb(0,0,0);background-color:transparent;font-variant-numeric:normal;font-variant-east-asian:normal;vertical-align:baseline;white-space:pre-wrap"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif"><br></span></span></span></div><font size="4">But that's another example of the robot NOT abstracting away all physical qualities. To do any sort of interpreting you're going to have to do data processing, and to do that you're going to need matter, and not just any matter but matter that's organized in a fundamentally specific way, a way that Alan Turing discovered in 1936. That's why even the most advanced book on number theory can't add 2+2, but the cheapest pocket calculator can, the matter in the book just isn't organized in the right way.</font><br><div><font face="arial, helvetica, sans-serif"><br></font></div><div><font size="4">Brent<span class="gmail_default" style="font-family:arial,helvetica,sans-serif">:</span></font></div><div><font size="4"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif"></span><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">"</span>The first 2 robots represent knowledge of the strawberry directly on physical qualities,<span class="gmail_default" style="font-family:arial,helvetica,sans-serif">"</span></i></font><div><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif"><br></span></i></div><div><span class="gmail_default" style="font-family:arial,helvetica,sans-serif"><font size="4">Yes and although you don't say what it is if robot #3 is to do any sort of data processing, much less engage in intelligent behavior, it's going to have to represent numbers with something physical just as the first two robots did.</font></span><div><div class="gmail_quote"><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div style="font-family:arial,helvetica,sans-serif"><font size="4"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">>></span>what particular qualia a external stimulus is bound to may result is differences in brain chemistry but those different chemistries result in no subjective change whatsoever and no change in behavior either.</font></div></div></div></blockquote><div><br></div><div><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Having troubles parsing this.</i></div></div></div></blockquote><div><br></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><font size="4">Which word didn't you understand?</font></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><font size="4"><br></font></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><font size="4">John K Clark</font></div><div><br></div></div></div></div></div></div>