<div dir="auto"><div>I read the paper a while back. These were my notes / objections from reading it:</div><div dir="auto"><br></div><div dir="auto">From the paper:</div><div dir="auto">"A constituted mental state is one whose semantic reality is physically made of,
</div><div dir="auto">and fundamentally un-abstractable from, the specific thermodynamic and metabolic dynamics of the experiencing
</div><div dir="auto">organism."</div><div dir="auto"><br></div><div dir="auto">My response:</div><div dir="auto">To me it seems to be a regurgitation of Searle's biological naturalism. It doesn't say why only a metabolically active thing can serve as a "mapmaker" nor why a robot with a battery and computer draining that battery is not a thermodynamic system nor metabolically active. Does food have to be digested to charge the battery of the robot, elsewhise it is a zombie?</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">From the paper:</div><div dir="auto">"However, a silicon replacement that perfectly mimics only the electrical firing profile (š‘ ā†’ š‘ā€²) preserves nothing but an extrinsic computational map, one defined entirely by an external mapmaker’s chosen abstractions (š“ ā†’ š“′).
</div><div dir="auto">It systematically obliterates the intrinsic thermodynamic territory (š‘ƒ) required for life, substituting a constitutive physical reality with a causally inert, syntactic simulation. The qualia do not mysteriously ā€œfadeā€; the foundational metabolic substrate required to instantiate them is simply removed."</div><div dir="auto"><br></div><div dir="auto">My response:</div><div dir="auto">He is avoiding the argument (Chalmers's fading qualia argument). If it doesn't fade then what does he think happens? Is he advocating for suddenly disappearing qualia the moment one neuron is substituted?</div><div dir="auto"><br></div><div dir="auto">Searle at least answered Chalmers head on. Searle thought your conscious states would disconnect from the physical states your brain was realizing (showing some type of assumed dualism in Searle's thinking).</div><div dir="auto"><br></div><div dir="auto">From the paper:</div><div dir="auto">"The physical state of the system alone determines its evolution. The semantic content of the symbol (š“) plays no causal role, since the machine would perform the same physical operations even if the symbol referred</div><div dir="auto">to nothing at all."</div><div dir="auto"><br></div><div dir="auto">My response:</div><div dir="auto">The above constraint would make self-isolated brain states, such as dreams, impossible. For then the brain becomes exactly the self-evolving system devoid of external references, which he claims can't be conscious.</div><div dir="auto"><br></div><div dir="auto">From the paper:</div><div dir="auto">"The same principle applies to embodied AI systems. Sensors and actuators allow the system to interact with the physical world, but they do not automatically transform symbolic representations into intrinsic, experienced semantics. The system may build increasingly detailed maps of its environment, but interacting with the territory does not by itself turn the map into the territory of experience."</div><div dir="auto"><br></div><div dir="auto">My response:</div><div dir="auto">A rather hand-wavey denial, that doesn't really explain or say anything.</div><div dir="auto"><br></div><div dir="auto">From the paper:</div><div dir="auto">"It operates only on symbols (e.g., floating point numbers manipulated by matrix multiplications) that have been discretized and alphabetized for computation by an external mapmaker."</div><div dir="auto"><br></div><div dir="auto">My response:</div><div dir="auto">He says this makes consciousness impossible, yet it seems to be a perfect description of the brain's visual cortex operating on discretized neural spikes computed at the retina and sent down the wire of the optic nerve.</div><div dir="auto"><br></div><div dir="auto">From the paper:</div><div dir="auto">"To fully understand the difference between the embodied robot running an algorithm on a chip and the biological mapmaker, we need to remember that for the latter, subjective experience is a given, not because of abstract information processing, but because of a specific, metabolically constituted physical</div><div dir="auto">reality."</div><div dir="auto"><br></div><div dir="auto">My response:</div><div dir="auto">This is just pure carbon chauvinism.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">In summary, the paper is just another version of Searle's biological naturalism: it says only metabolically active living cells can have "experienced semantics" while non-living substrates are reduced to merely dealing withĀ  "symbolic representations" and hence are non-conscious zombies. And so it fails for the same 27 original arguments leveled against Searle in 1980.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">JasonĀ </div><div dir="auto"><br><br><div class="gmail_quote gmail_quote_container" dir="auto"><div dir="ltr" class="gmail_attr">On Mon, Apr 27, 2026, 3:56 PM BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr">On Mon, 27 Apr 2026 at 18:42, John Clark via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a> wrote:<br>> But what makes you believe that your fellow human beings are better at that than Claude or Gemini? There must be some reason why you believe computers are not conscious but also think that solipsism is not true. Is it just that computers have brains that are soft and squishy while other humans have brains that are hard and dry? Ā <br>><br>> John K Clark<br>> _______________________________________________<br><div><br></div><div><br></div><div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default">A senior staff scientist at Google’s artificial intelligence laboratory DeepMind, Alexander Lerchner, argues <a href="https://deepmind.google/research/publications/231971/?ref=404media.co" rel="noreferrer noopener noreferrer" target="_blank"><u>in a new paper</u></a> that no AI or other computational system will ever become conscious.Ā </div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default">"The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness".</div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default"><br></div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default"><<a href="https://www.404media.co/google-deepmind-paper-argues-llms-will-never-be-conscious/" target="_blank" rel="noreferrer">https://www.404media.co/google-deepmind-paper-argues-llms-will-never-be-conscious/</a>></div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default">Quote:</div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default">Lerchner’s paper argues that AGI without sentience is 
possible, saying that ā€œthe development of highly capable Artificial 
General Intelligence (AGI) does not inherently lead to the creation of a
 novel moral patient, but rather to the refinement of a highly 
sophisticated, non-sentient tool.ā€</div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default">--------------------------------</div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default"><br></div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default">Other cognitive scientists agree with his conclusions but are rather upset that he hasn't cited any of their decades of research papers.Ā  :)</div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default"></div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default">BillK</div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default"><br></div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default"><br></div><br></div></div>
</div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div></div>