<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Mar 26, 2023, 9:29 PM Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com">gordon.swobe@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr">On Sun, Mar 26, 2023 at 9:01 AM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:</div><div class="gmail_quote"><div><br>Correct, that is not the meaning of "understand" that I, or Bender so far as can tell, are considering. AlphaZero is obviously a very intelligent chess application, but does it consciously mull over the possible moves like a human? I think not, but I won't dwell on this as you showed me below that you understand my meaning.<br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">To explain my position:</div><div dir="auto">As I see consciousness, if I throw a ball to a robot and the robot is able to reliably catch it, then something within the robot must be conscious of the ball. I think any other position leads to zombies (things which appear to be conscious but are not). I think zombies lead to logical inconsistencies and so I must reject the possibility of things that reliably behave as if conscious but are not.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>, but it's still no more than unconscious software running blindly on digital computers.<br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I don't think we've discussed this before: do you think an uploaded human brain would be conscious (assume simulated to any required level of fidelity)?</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div></div><div><br>I think that forced to decide whether to kill me or his digital girlfriend, he would have killed me. In fact that is one reason why I have returned to ExI after a long hiatus. The Singularity is here. <br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">We are in interesting times indeed.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br>Do you think a piece of software running a digital computer can have genuine feelings of love for you? <br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Absolutely. I have close to zero doubt on this.</div><div dir="auto"><br></div><div dir="auto">By virtue of: Church Turing theis (every finite process is emulable by a digital computer, the Bekenstein bound (our physical brain is finite), and the Anti-Zombie principle (p-zombies are logically impossible). Together these ensure that the brain is emulable by a digital computer and the Anti-Zombie principle ensures it will be equally conscious as the physical instance.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div></div><div><br><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>I agree with you here, that her use of "understand" is generous and perhaps inappropriate for things like Siri or Alexa. I also agree with you that the calculator, while it can do math, I would not say that it understands math. Its understanding, if it could be said to have any at all, would rest almost entirely in "understanding" what keys have been pressed and which circuits to activate on which presses.</div></div></div></blockquote></div></div></div></blockquote><div><br>I'm glad we agree on that much!<br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">👍</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>Understanding involves the capacity to consciously hold something in mind. </div></div></div></blockquote><div><br></div><div>I agree with this definition.</div></div></div></blockquote></div></div></blockquote><div><br>I'm especially glad we agree on that.<br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">☺️</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> I find it pretty easy to infer consciousness in most mammals. Digital computers, not so much. That is a giant leap of faith.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I agree it is easier to infer consciousness of other animals as it requires one less assumption than it does not to infer the potential consciousness of computers (the assumption that the material composition is unimportant).</div><div dir="auto"><br></div><div dir="auto">However I do not think this requires much more faith, as I find some thought experiments such as Chalmers "fading qualia" quite convincing that material composition cannot make a difference to conscious perceptions.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>Yes, you continue to believe we can glean the meanings of symbols from their forms and patterns. I consider that a logical impossibility.<br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">But as I point out, we *know* it's not a logical impossibility because our brains do it.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><div class="gmail_quote"><div>What do you think is required to have a mind and consciousness? </div></div></div></div></blockquote></div></div></blockquote><div><br>A human brain would be a good start. :) <br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">We agree a human brain is conscious, but what would you say for "X"</div><div dir="auto"><br></div><div dir="auto">An entity is conscious if and only if it has X.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><div class="gmail_quote"><div>Do you think that no computer program could ever possess it, not even if it were put in charge of an android/root body?</div></div></div></div></blockquote></div></div></blockquote><div><br>I think no computer program running on a digital computer as we currently understand them can possess it. Consciousness might be possible in some sort of android body, someday, once we understand what  are sometimes called the neural correlates of consciousness. What exactly happens in the brain when a boxer delivers a knock-out punch? When neuroscience learns the precise and detailed answer to that question, we can think about how those neural correlates might be synthesized in a laboratory. <br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Anesthesiologists have a theory of unconscious called cognitive unbinding. I'm not sure if the same thing explains loss of consciousness due to impact or not. The general idea is that different subregions of the brain stop meaningfully communicating with each other. But one problem with this is it's also quite difficult to differentiate unconscious from lack of memory formation.</div><div dir="auto"><br></div><div dir="auto">Jason </div></div>