<div dir="ltr"><br><div class="gmail_quote"><br><br><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Apr 25, 2022 at 5:23 PM Brent Allsop <<a href="mailto:brent.allsop@gmail.com" target="_blank">brent.allsop@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div>Hi Jason,<br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Apr 25, 2022 at 2:18 PM Jason Resch <<a href="mailto:jasonresch@gmail.com" target="_blank">jasonresch@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>Hi Brent,</div><div><br></div><div>I appreciate your quick response and for getting to the heart of the issue. My replies are in-line below:</div></div></blockquote><div>Likewise. </div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Apr 25, 2022 at 1:43 PM Brent Allsop <<a href="mailto:brent.allsop@gmail.com" target="_blank">brent.allsop@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><br><div>Hi Jason,</div><div>Yes, Stathis and I have gone over these same arguments, in a gazillion different ways, for years, still unable to convince the other.  I agree with most everything you say, but it is all entirely missing the point.</div><div><br></div><div>I think you get to the core of the issue with your:</div><div>"<font color="#0000ff">First, I would like you to deeply consider for a moment the question 'What is matter?'"</font></div><div><br></div></div></blockquote><div>I am curious what your intuition says on this? Do you think that there are intrinsic properties of matter (beyond its third-person observable behavior) which is somehow necessary for consciousness or quale such as red?</div></div></div></blockquote><div><br></div><div>There seems to be a physical strawberry out there, which is red.  Our intuition about the quality of that physical. thing is right,  just for the wrong stuff.  It is your physical knowledge of the strawberry that has the redness quality.</div></div></div></blockquote><div><br></div><div>What do you think is the embodiment of this physical knowledge? I don't think it is in the strawberry, for you can have a dream about a red strawberry without there being any strawberry. Or a TV can project photons to your retina without there being a strawberry, or a neurosurgeon can apply electrical stimulation to parts of your brain to make you see a red strawberry without there being one. So at what point and where does this physical knowledge come into play? Are you considering that it exists in chemicals within the brain itself?</div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> The issue is with one of these assumptions:</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>"1. <font color="#0000ff">Given the Church-Turing Thesis, any finitely describable process can be perfectly replicated by an appropriately programmed Turing Machine</font>"</div><div><br></div><div>The isus is that any description of redness (our claim that something is redness) tells you nothing of the nature of redness, without a dictionary  pointing to an example of redness.</div></div></blockquote><div><br></div><div>Yes this is the "symbol grounding problem". All communication, of anything (even so-called objective properties like mass, distance, time durations, etc.) require ostensive (pointing to) definitions. Since no two minds can ever share that common reference frame, and point out to the same quale, ostensive definitions of these quale, and hence meaningful communication concerning them, is impossible (since there can never be a verifiable common foundation).</div></div></div></blockquote><div><br></div><div>It's only a "problem" for functionalists.  For Materialists it is just a physical fact that something in the brain has that quality, waiting for us to discover it.</div><div>Say we discover it is glutamate, and that no matter how hard a functionalist tries, they can't reproduce a redness experience, without glutamate, as Materialism predicts. </div></div></div></blockquote><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>What does that say about your non falsifiable proof?</div></div></div></blockquote><div><br></div><div>A functionally equivalent computation of a brain's neural network (when the simulating computer does not contain glutamate) will nonetheless result in that person reporting that they see red, since their functions were replicated, all outwardly observable behaviors will, by definition, be identical, so how can it ever be discovered that the redness quality is no longer there? Even if it were absent, and they could consciously notice this (though even this I think is getting into dubious inconsistency territories) they could exhibit no outward signs that they were experiencing things any differently. You need to be an epiphenominalist to even accept the plausibility of this scenario (where one does not see red, but reports that they do and that nothing has changed).</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>This is true for the same reason you can't communicate to a blind person what redness is like, no matter how many words you use.</div><div><br></div><div>Stathis always makes this same claim:</div><div><br></div><div>"<font color="#0000ff">It is true that functionalism cannot be falsified. But not being falsifiable is a property of every true theory.</font>"</div><div><br></div><div>no matter how many times I point out that if that is true, no matter what you say redness is, it can't be that, either, because you can use the same zombie or neural substitution argument and claim it can't be that either.</div></div></blockquote><div><br></div><div>I don't follow this point, could you elaborate?</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>All you prove is that qualia aren't possible.</div></div></blockquote><div><br></div><div>I do not follow how this conclusions was reached.</div></div></div></blockquote><div><br></div><div>Yea, I possibly just skipped past a few complex years of discussion with Stathis.  Basically, no matter what you say redness is (even if it results from some function), you can "prove" with the <a href="https://canonizer.com/topic/79-Neural-Substitn-Argument/1-Agreement" target="_blank">neural substitution argument</a> that it can't be that, either. </div></div></div></blockquote><div><br></div><div>I am still not seeing how you are arriving at this conclusion. A neural substitution preserves the abstract functional relations and properties, so substituting one type of neuron for another doesn't change the function that is implemented.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> Your zombie arguments seem the same, to me.  It doesn't prove that redness must be "functional" it proves there can be no redness of any kind.  Let me know your zombie argument doesn't have the same problem.</div></div></div></blockquote><div><br></div><div>A functionalist would say redness exists as a property inherent to particular ways of processing information, as implemented by certain algorithms or functions. How does this prove there can be no redness of any kind? I think there is something one, or both of us, may be missing here  as we seem to  be talking past each other on this point without any communication or understanding occurring.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div>Again, it's all about the assumptions you make.  Everyone assumes the simulation will succeed.  Materialists simply predict it will fail, and that whatever it is that has the redness quality, when you get to the fist pixel of redness, nothing but glutamate will enable you to produce an experience with a redness quality.  The substitution will fail.</div></div></div></blockquote><div><br></div><div>How do you envision this failure manifesting? Do you agree with Searle when he says: </div><div><br></div></div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div class="gmail_quote"><div>“as the silicon is progressively implanted into your dwindling brain, you find that the area of your</div></div><div class="gmail_quote"><div>conscious experience is shrinking, but that this shows no effect on your external behavior. You</div></div><div class="gmail_quote"><div>find, to your total amazement, that you are indeed losing control of your external behavior. You</div></div><div class="gmail_quote"><div>find, for example, that when the doctors test your vision, you hear them say, "We are holding up a</div></div><div class="gmail_quote"><div>red object in front of you; please tell us what you see." You want to cry out, "I can't see anything.</div></div><div class="gmail_quote"><div>I'm going totally blind." But you hear your voice saying in a way that is completely out of your</div></div><div class="gmail_quote"><div>control, "I see a red object in front of me."”</div></div></blockquote><div class="gmail_quote"><div><br></div><div>Or something like that?</div><div><br></div><div>  </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>   And since we know, absolutely, It is a physical fact that I can experience redness,</div><div><br></div><div>What does "physical" add to the above sentence? To me it seems redundant and only adds to the confusion (as we still haven't settled what is meant by physics or matter).</div></div></div></blockquote><div><br></div><div>Yea 'physical' is probably redundant. </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>this just proves your assumptions (about the nature of matter) are incorrect.</div></div></blockquote><div><br></div><div>I don't see why you think the assumption of functionalism leads to a denial of qualia/consciousness.</div></div></div></blockquote><div>Again, it is the neural substitution argument, which makes people think things like redness are functional.  But the neural substitution problems proves nothing, including some function, can have a redness quality.<br></div><div>And my understanding is the main reason people think they are forced to accept functionalism (despite all the 'hard' problems that go along with it) is because of neural substitution and zombie arguments.</div></div></div></blockquote><div><br></div><div>Did you see an error in my 6 step proof that if zombies are impossible, functional equivalence must preserve consciousness? If so it wasn't clear to me which point or assumption you believe the error exists in.</div><div><br></div><div>What do you see as the "hard problems" of functionalism?</div><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>  To say nothing about all the other so-called 'hard problems' that emerge with that set of assumptions.</div><div><br></div><div>We can abstractly describe and predict how matter "whatever it is" will behave.  But when it comes to intrinsic colorness qualities or qualia, like redness and greenness, you've got to point to some physical example of something that has that redness quality.  And without that, there is no possible way to define the word "redness", let alone experience redness.</div></div></blockquote><div><br></div><div>A shared physical realm is necessary to ostensively define properties like mass, distance, and time durations. Two beings, kept apart in two different universes but allowed to communicate bit strings back and forth could never reach any agreement on how long a "meter" is.</div><div><br></div><div>This is the situation we are in with qualia. Two minds are in a sense, like two partially isolated simulated universes, with an inability to ever share the meaning of what they mean when they refer to their red experiences, short of an Avatar-like neural link to temporarily bridge their two independent and isolated mental realities.</div></div></div></blockquote><div><br></div><div>I thought we already went over this.  Brain Hemispheres and <a href="https://www.cbc.ca/cbcdocspov/features/the-hogan-twins-share-a-brain-and-see-out-of-each-others-eyes" target="_blank">conjoined twins</a> prove what you think cannot be done can be done.</div><div>If a brain hemisphere isn't an island, why would a brain be so constrained.  it's kind of like saying we will never fly, while watching birds fly.  It is only a matter of time before we can do all of the following engineereing in an artificial way.</div><div><br></div><div>1. weak form of effing the ineffable.</div><div>2. Stronger form of effing the ineffable.</div><div>4. Strongest form of effing the ineffable.</div><div><br></div><div>For a more detailed description of these, see <a href="https://www.quora.com/How-can-we-prove-consciousness-in-the-universe/answer/Brent-Allsop-1" target="_blank">this quora answer</a>.</div></div></div></blockquote><div><br></div><div>I am not sure what you think I am saying cannot be done. I believe minds can be merged with sufficient technology. My only point is that after a separation, one can no longer be certain that their memories of qualia while joined have not somehow changed after the split. For what it's worth, we can't be certain the red we experience today wasn't experienced as green yesterday. Although I am of the opinion that for such a change to occur would require an in-principal third-person detectable reorganization of the processing done by someone's brain between those two days.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div>Take the 16th color of the knowledge of that shrimp, which no human has ever experienced, which you mentioned.</div><div>How are you going to reproduce that in your brain, so you can both know what it is like</div></div></div></blockquote><div><br></div><div>It seems mammalian brains are sufficiently flexible to learn to interpret and process new sensory input after a few weeks of time to adjust to the new signal, as found in this experiment:</div><div><a href="https://www.sciencedaily.com/releases/2009/09/090916133521.htm" target="_blank">https://www.sciencedaily.com/releases/2009/09/090916133521.htm</a><br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> and then can use it to represent an additional wavelength of sensed light?</div><div>You just need to take whatever it is, and computationally bind it into your consciousness.  Nothing hard about that.</div><div>Claiming that could be duplicated simply by programming some function called 16th colorness quality doesn't even pass the laugh test does it?</div></div></div></blockquote><div><br></div><div>When one is talking about functions that within our own brains, involve billions of neurons and hundreds of trillions of synapses, it is hard to say what the outcome may be. Though I doubt that such a function implementing color vision could be implemented simply. This was one of my motivations for writing the artificial life software, to try to ascertain what are the bare minimum computations/processes necessary for the barest levels of sentience. Though these bots have just 16 artificial neurons, they learn to:</div><div><ul><li>Spin Searching For Food</li><li>Stop to Eat Food and pass over Poison</li><li>Follow Food on the Move</li><li>Travel at high speed in a straight line</li><li>Slow down when food encountered</li><li>Travel with antenna to side stopping to eat</li><li>Flinch antenna on contact with poison</li><li>Slightly turn to sweep larger area</li><li>Turning and spreading out antenna while eating</li><li>Try to speed through poison</li><li>Stay still hiding from poison</li><li>Move out of the way when poison is near</li><li>Flinch, wiggle, and run on contact with poison</li></ul><div>You can observe all these behaviors evolve in real time over just 20 some minutes here: <a href="https://www.youtube.com/watch?v=InBsqlWQTts&list=PLq_mdJjNRPT11IF4NFyLcIWJ1C0Z3hTAX&index=1" target="_blank">https://www.youtube.com/watch?v=InBsqlWQTts&list=PLq_mdJjNRPT11IF4NFyLcIWJ1C0Z3hTAX&index=1</a></div></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div>We may not know what matter is, but we know, absolutely, that something has a redness quality.</div></div></div></blockquote><div><br></div><div>Indeed. I agree. I was just reading this article today which makes a similar point: <a href="https://archive.ph/RVY0F" target="_blank">https://archive.ph/RVY0F</a> ( <a href="https://www.nytimes.com/2016/05/16/opinion/consciousness-isnt-a-mystery-its-matter.html" target="_blank">https://www.nytimes.com/2016/05/16/opinion/consciousness-isnt-a-mystery-its-matter.html</a> )</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>We just don't yet know what.  That's the only problem.</div><div><br></div></div></div></blockquote><div><br></div><div> I like to think of it like trying to figure out how a word processor works, when we only have two views to it: what we see on the screen, with the buttons, and cursor, and menus, and the compute hardware itself, with its billions of transistors tossing electrons back and forth. From either vantage point, it is an utter and incomprehensible mystery how one view has anything to do with the other view. It's only in the intermediate view, the software modules, the libraries, the functional description, the high level programming language specifying everything, that our minds have any hope of understanding things.</div><div><br></div><div>Today we see the conscious experience, and we see the neurons under a microscope. What we're missing is the intermediate high-level descriptions of the types of processing done by higher level collections of neurons, and brain regions, etc. I think these steps are what is necessary if we are to make any headway into understanding what red is. I tend to doubt lower level neurotransmitters have any important role, for though red seems simple, we have no reason to assume it must be simple.  Nore more than we should assume the spell-checker is simple, because it is represented with a single button in the word processor UI.</div><div><br></div></div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div class="gmail_quote"><div>"Red the colour of blood</div></div><div class="gmail_quote"><div>the symbol of life</div></div><div class="gmail_quote"><div>Red the colour of danger</div></div><div class="gmail_quote"><div>the symbol of death</div></div></blockquote><div class="gmail_quote"><div><br></div></div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div class="gmail_quote"><div>Red the colour of roses</div></div><div class="gmail_quote"><div>the symbol of beauty</div></div><div class="gmail_quote"><div>Red the colour of lovers</div></div><div class="gmail_quote"><div>the symbol of unity</div></div></blockquote><div class="gmail_quote"><div><br></div></div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div class="gmail_quote"><div>Red the colour of tomato</div></div><div class="gmail_quote"><div>the symbol of good health</div></div><div class="gmail_quote"><div>Red the colour of hot fire</div></div><div class="gmail_quote"><div>the symbol of burning desire”</div><div>-- Oluseyi Oluseun</div></div></blockquote><br><div>If you saw "red" the way I see "blue", would the above poem still make as much sense? If not this suggests the experience of red is not a "raw perception" but contains many deep associations and connections to other aspects of our mind. Even pain, when it feels so singular, can be decomposed via brain surgery. Take this example:</div><div><br></div><blockquote style="margin:0 0 0 40px;border:none;padding:0px"><div>Paul Brand, a surgeon and author on the subject of pain recounted the case of a woman</div><div>who had suffered with a severe and chronic pain for more than a decade: She agreed to a surgery</div><div>that would separate the neural pathways between her frontal lobes and the rest of her brain. By all</div><div>accounts the surgery was a success. Brand visited the woman a year later, and inquired about her</div><div>pain. She said, “Oh, yes, it’s still there. I just don't worry about it anymore.” While smiling she</div><div>added, “In fact, it's still agonizing. But I don't mind.”</div></blockquote><div><br></div><div>Jason</div></div>
</div></div>