<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, May 1, 2022, 10:04 PM Brent Allsop <<a href="mailto:brent.allsop@gmail.com">brent.allsop@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br><div>Hi Jason,</div><div><br></div><div>Yes, this is the <a href="https://canonizer.com/topic/79-Neural-Substitn-Argument/1-Agreement" target="_blank" rel="noreferrer">Neuro Substitution Argument for functionalism</a> Stathis, I and others have been rehashing, forever, trying to convince the other side..  Stathis, Chalmers, and other <a href="https://canonizer.com/topic/88-Theories-of-Consciousness/18-Qualia-Emerge-from-Function" target="_blank" rel="noreferrer">functionalists</a> believe they must accept functionalism because of this argument.  This is a specific example of the 'dancing qualia' contradiction (one of many) which results if you accept this argument.</div><div><br></div><div>I like to point out that this argument is dependent on two assumptions.  1., that all the neurons do is the same thing discrete logic gates do in abstract computers.  2. That the neuro substitution will succeed.  If either of these two fail, the argument doesn't work.</div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I think you may be misapplying the computational universality argument as it pertains to machines and minds.</div><div dir="auto"><br></div><div dir="auto">What I, and other functionalists, claim is not that neurons are like logic gates or that the brain is like a computer, but quite the opposite:</div><div dir="auto"><br></div><div dir="auto">It's not that the brain is like a computer but that a computer (with the right program) can be like a brain.</div><div dir="auto"><br></div><div dir="auto">The universality of computers means computers are sufficiently versatile and flexible that they can predict the behavior of neurons. (Or molecules, or atoms, or quarks, or chemical interactions, or physical field interactions, or anything that is computable).</div><div dir="auto"><br></div><div dir="auto">Your assumption that functional equivalence is impossible to achieve between a computer and a neuron implies neurons must do something uncomputable. They must do something that would take a Turing machine an infinite number of steps to do, or have to process an infinite quantity of information in one step, but what function could this be in a neuron and how could it be relevant to neuronal behavior?</div><div dir="auto"><br></div><div dir="auto">All known physical laws are computable, so if everything neurons do is in accordance with known physical laws, then neurons can in principle be perfectly simulated.</div><div dir="auto"><br></div><div dir="auto">For your argument to work, one must suppose there are undiscovered, uncomputable physical laws which neurons have learned to tap into and that it is important to their function and behavior.</div><div dir="auto"><br></div><div dir="auto">But what is the motivation for this supposition?</div><div dir="auto"><br></div><div dir="auto">For Penrose it was the idea that human mathematicians can know something is true that a consistent machine following fixed rules could not prove. But this is flawed in many ways. Truth is different from proof, and human mathematicians are not consistent, they don't necessarily stay within one system when reasoning, and further, they are subject to the same Godelian constraints.</div><div dir="auto"><br></div><div dir="auto">For example: "Roger Penrose cannot consistently believe this sentence is true." You and I can see it as true and believe it, but Penrose cannot. He is stuck the same way any consistent proving machine can be stuck. He can only see the sentence as true if he becomes inconsistent himself.</div><div dir="auto"><br></div><div dir="auto">To assume something as big as a new class of uncomputable physical laws, for which we have no indication of or evidence for, requires some compelling reason. What is the reason in your case?</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><br></div><div>Steven Leahar, I, and others (there are more functionalists than us) predict that the neurons are doing more than just the kind of discrete logic function abstract computers do.  </div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Certainly, neurons are far more complex than AND or XOR gates. I agree with you there, but that is irrelevant to the point:</div><div dir="auto"><br></div><div dir="auto">The right arrangement of logic gates together with an unbounded working memory (a computer), is able to be programmed to perform any computable mathematical function or any computable physical simulation of any physical object following computable physical laws.</div><div dir="auto"><br></div><div dir="auto">So the question to answer is:</div><div dir="auto">What is the nature of this uncomputable physics, abd how does the neuron use it?</div><div dir="auto"><br></div><div dir="auto">It's okay to say: I don't know. But it's important to recognize what you are required to assume for this argument to hold: the presence and importance of a new, uncomputable physics, which playa a necessary functional role in the behavior of neurons. Neurons must decide to fire or not fire based on this new physics, and presently known factors such as ion concentrations and inputs and dendritic connections etc. are insufficient to make the determination of whether or not s neuron will fire.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>Somehow they use qualities, like redness and greenness to represent information, in a way that can be "computationally bound" doing similar computation to what the mere discrete logic gates are doing, when they represent things with 1s and 0s.</div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Why presume that red and green must be low level constructs rather than high level constructs?</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>  A required functionality is if redness changes to blueness, or anything else, the system must behave differently and report the difference.  But this functionality isn't possible in abstract systems, because no matter how the substrate changes, it still functions the same.  This is by design.  (i.e. no matter what is representing a value like '1', whether redness or bluenness or +5 volts, or punch in paper..., you need a different dictionary for each different representation to tell you what is still representing the 1.)  Redness, on the other hand, is just a fact.  No dictionary required, and substrate independence is impossible, by design.</div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">That redness appears as a brute fact to a mind does not mean it must be a primitive brute fact or property of the substrate itself.</div><div dir="auto"><br></div><div dir="auto">Again from Chalmers:</div><div dir="auto"><br></div><div dir="auto">“Now, let us take the system’s “point of view” toward what is going on. What sort of judgments will it form? Certainly it will form a jdugement such as “red object there,” but if it is a rational, reflective system, we might also expect it to be able to reflect on the process of perception itself. How does perception “strike” the system, we might ask?</div><div dir="auto">The crucial feature here is that when the system perceives a red object, central processes do not have direct access tot the object itself, and they do not have direct access to the physical processes underlying perception. All that these processes have access to is the color information itself, which is merely a location in a three-dimensional information space. When it comes to linguistically reporting on the situation, the system cannot report, “This patch is saturated with 500- to 600-nanometer reflections,” as all access to the original wavelengths is gone. Similarly, it cannot eport about the neural structure, “There’s a 50-hertz spiking frequency now,” as it has no direct access to neural structures. The system has access only to the location in information space.</div><div dir="auto">Indeed, as far as central processing is concerned, it simply finds itself in a location in this space. The system is able to make distinctions, and it knows it is able to make distinctions, but it has no idea how it does it. We would expect after a while that it could come to label the various locations it is thrown into–”red,” “green,” and the like-and that it would be able to know just which state it is in at a given time. But when asked just how it knows, there is nothing it can say, over and above “I just know, directly.” If one asks it, “What is the difference between these states?” it has no answer to give beyond “They’re just different,” or “This is one of those,” or “This one is red, and that one is green.” When pressed as to what that means, the system has nothing left to say but “They’re just different, qualitatively.” What else could it say?”</div><div dir="auto"><br></div><div dir="auto">“It is natural to suppose that a system that can know directly the location it occupies in an information space, without having access to any further knowledge, will simply label the states as brutely and primitively different, differing in their “quality.” Certainly, we should expect these differences to strike the system in an “immediate” way: it is thrown into these states which in turn are immediately available for the direction of later processing; there is nothing inferential, for example, about its knowledge of which state it is in. And we should expect these states to be quite “ineffable”: the system lacks access to any further relevant information, so there is nothing it can say about the states beyond pointing to their similarities and differences with each other, and to the various associations they might have. Certainly, one would not expect the “quality” to be something it could explicate in more basic terms.”</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><br></div><div>So, the prediction is that it is a fact that something in the brain has a redness quality.  </div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">What are your base assumptions here from which this prediction follows? It it something like:</div><div dir="auto"><br></div><div dir="auto">1. Qualia like red seem primitively real</div><div dir="auto">2. Therefore we should assume qualia like red are primitively real</div><div dir="auto">3. It then follows the brain must use this primitively real stuff to compose red experiences</div><div dir="auto"><br></div><div dir="auto">I see the logic of this, but how things seem and how reality is, are often different. Given that this line of reasoning leads to fading/dancing/absent qualia (short of requiring that neuronal behavior involves an unknown uncomputable physics), raises the bar of doubt for me, enough to tilt me towards the idea that in this case, appearances perhaps do not reflect reality as it is (as is often the case in science, e.g. life seemed designed until Darwin).</div><div dir="auto"><br></div><div dir="auto">In other words, to keep a simpler physics, I am willing to give up a simple account of qualia. This makes qualia into complex, high level properties of complex processes within minds, but preserves the relative simplicity of our physical theories as we presently know and understand them.</div><div dir="auto"><br></div><div dir="auto">Is this a price worth paying? It means we still have more explaining to do regarding qualia, but this is no different a quest than biologists faced when they gave up on a simple "elan vital" in explaining the unique properties and abilities of "organic matter."</div><div dir="auto"><br></div><div dir="auto">In the end, the unique abilities and properties if organic matter, to grow, to initiate movement, to cook rather than melt, turned out not to be due to a primitive property inherent to organic matter but rather was a matter of is highly complex organization.</div><div dir="auto"><br></div><div dir="auto">I think the same could be true for qualia: that it's not the result of a simple primitive, but the result of a complex organization.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>Our brain uses this quality to represent conscious knowledge of red things with.  Nothing else in the universe has that redness quality.  So, when you get to the point of swapping out the first pixel of glutamate/redness quality, with anything else, the system must be able to report that it is no longer the same redness quality.  Otherwise, it isn't functioning sufficiently to have conscious redness and greenness qualities.  So, the prediction is, no functionalist will ever be able to produce any function, nor anything else, that will result in a redness experience, so the substitution will fail.  If this is true, all the 'dancing', 'fading', and all the other 'hard problem' contradictions no longer exist.  It simply becomes a color problem, which can be resolved through experimentally demonstrating which of all our descriptions of stuff in the brain is a description of redness.</div><div><br></div><div>So, if you understand that, does this argument convince you you must be a functionalist, like the majority of people?</div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Do you agree with my assessment of the trade offs? That is, we either have:</div><div dir="auto"><br></div><div dir="auto">1. Simple primitive qualia, but new uncomputable physical laws</div><div dir="auto"><br></div><div dir="auto">Or</div><div dir="auto"><br></div><div dir="auto">2. Simple computable physics, but complex functional organizations necessary for even simple qualia like red?</div><div dir="auto"><br></div><div dir="auto">If not, is there a third possibility I have overlooked?</div><div dir="auto"><br></div><div dir="auto">Jason</div></div>