<div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Mon, Apr 27, 2026 at 10:59 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:</span></div></div><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><font face="tahoma, sans-serif" size="4"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>I read the paper a while back.</i></font></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>Better you than me.<span class="gmail_default" style=""> </span> </b></font></div><font face="tahoma, sans-serif" size="4"><b><br></b></font><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">></span>To me it seems to be a regurgitation of Searle's biological naturalism. </i></font></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>An<span class="gmail_default" style="">d </span>Searle's biological naturalism<span class="gmail_default" style="">, including his Chinese Room argument, is not worth a bucket of warm spit. </span></b></font></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style=""><br></span></b></font></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><font size="4" face="tahoma, sans-serif"><i> <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>It doesn't say why only a metabolically active thing can serve as a "mapmaker" nor why a robot with a battery and computer </i></font></blockquote><div><br></div><div><font size="4"><font face="tahoma, sans-serif"><b>As I've said I have not read the paper and do not intend to,<span class="gmail_default" style="font-family:arial,helvetica,sans-serif"> </span>but I've read enough<span class="gmail_default" style=""> </span><span class="gmail_default" style="">papers </span>like it</b></font><span class="gmail_default" style=""><font style="" face="tahoma, sans-serif"><b style=""> to know that the implicit difference is that a human brain is soft and squishy but a computer is brain hard and dry; although of course they won't put it that way, philosophers will always dress up tautologies, clichés and pure silliness into convoluted language in an attempt to make them sound profound.  </b></font><font face="arial, helvetica, sans-serif"> </font></span> </font></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="">> </span> pure carbon chauvinism.</i></font></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>Apparently carbon is supposed to have some magical quality that silicon lacks.<span class="gmail_default" style=""> </span> </b></font></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>it says only metabolically active living cells can have "experienced semantics" while non-living substrates are reduced to merely dealing with  "symbolic representations" and hence are non-conscious zombies. And so it fails for the same 27 original arguments leveled against Searle in 1980.</i></font></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>And so my <span class="gmail_default" style="">2</span> predictions about that paper have been proven to be correct just as I knew they would be.<span class="gmail_default" style=""> </span> </b></font></div><div><font size="4" face="tahoma, sans-serif"><b><br></b></font></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style="">John K Clark</span><br></b></font></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"><br><br><div class="gmail_quote" dir="auto"><div dir="ltr" class="gmail_attr">On Mon, Apr 27, 2026, 3:56 PM BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">On Mon, 27 Apr 2026 at 18:42, John Clark via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer" target="_blank">extropy-chat@lists.extropy.org</a> wrote:<br>> But what makes you believe that your fellow human beings are better at that than Claude or Gemini? There must be some reason why you believe computers are not conscious but also think that solipsism is not true. Is it just that computers have brains that are soft and squishy while other humans have brains that are hard and dry?  <br>><br>> John K Clark<br>> _______________________________________________<br><div><br></div><div><br></div><div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">A senior staff scientist at Google’s artificial intelligence laboratory DeepMind, Alexander Lerchner, argues <a href="https://deepmind.google/research/publications/231971/?ref=404media.co" rel="noreferrer noopener noreferrer" target="_blank"><u>in a new paper</u></a> that no AI or other computational system will ever become conscious. </div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">"The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness".</div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)"><br></div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)"><<a href="https://www.404media.co/google-deepmind-paper-argues-llms-will-never-be-conscious/" rel="noreferrer" target="_blank">https://www.404media.co/google-deepmind-paper-argues-llms-will-never-be-conscious/</a>></div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">Quote:</div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">Lerchner’s paper argues that AGI without sentience is 
possible, saying that “the development of highly capable Artificial 
General Intelligence (AGI) does not inherently lead to the creation of a
 novel moral patient, but rather to the refinement of a highly 
sophisticated, non-sentient tool.”</div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">--------------------------------</div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)"><br></div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">Other cognitive scientists agree with his conclusions but are rather upset that he hasn't cited any of their decades of research papers.  :)</div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)"></div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">BillK</div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)"><br></div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)"><br></div><br></div></div>
</div>
___</blockquote></div></div></div>
</blockquote></div></div>