<div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><br></div></div><div dir="ltr"><div dir="ltr"><div style="font-family:arial,helvetica,sans-serif"><br></div></div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, May 6, 2026 at 4:19 PM BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:</div><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><i><font size="4" face="georgia, serif"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Ben Goertzel is a well-known AGI researcher who regards LLMs as a<br>
detour away from the path to AGI.</font></i></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>I am very familiar with<span class="gmail_default" style=""> </span>Ben Goertzel<span class="gmail_default" style="">. About 20 years ago I used to debate him on a mailing list that he started, he was a firm believer in crap like ESP and other unscientific nonsense. </span></b></font></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style=""><br></span></b></font></div><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><font size="4" face="georgia, serif"><i><a href="https://bengoertzel.substack.com/p/in-what-sense-might-llms-be-conscious" rel="noreferrer" target="_blank"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>https://bengoertzel.substack.com/p/in-what-sense-might-llms-be-conscious</a>><br>
Quote:<br>
And this is exactly where I think Dawkins goes wrong. Dawkins is not<br>
examining the mechanism that produces Claudia’s outputs. He’s<br>
examining the outputs</i></font></blockquote><div><br></div><div><span class="gmail_default" style=""><font face="arial, helvetica, sans-serif"></font><font size="4" style="" face="tahoma, sans-serif"><b style="">But</b></font></span><font size="4" face="tahoma, sans-serif"><b> that is exactly why<span class="gmail_default" style=""> </span>Ben Goertzel</b></font><span class="gmail_default" style=""><font size="4" style="" face="tahoma, sans-serif"><b style=""> has concluded he is not the only conscious being in the universe, he has NOT examined the mechanism that produces human outputs, he has only examined the outputs that humans have produced; and yet that was enough for him to conclude that other human beings are conscious, at least when they are not sleeping or under anesthesia or dead. </b></font><font face="arial, helvetica, sans-serif">  </font></span></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><font size="4" face="georgia, serif"><i style=""><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>and inferring the mechanism<span class="gmail_default" style=""> </span>— inferring that<span class="gmail_default" style=""> </span>because the outputs are humanlike, the inner state must be humanlike<span class="gmail_default" style=""> </span>too.</i></font></blockquote><div><font size="4" face="georgia, serif"><i style=""> </i></font></div><div class="gmail_default" style=""><font size="4" style="" face="tahoma, sans-serif"><b>No. Dawkins is saying that when making a judgment of an intelligent entity the specific brain mechanism used is irrelevant. Goertzel<span class="gmail_default" style=""> is saying that when judging another intelligent being the </span>content of his character or the nature of his actions is not important, the important thing is determining if his brain is wet and squishy or dry and hard. But how is that fundamentally different from judging another person by the color of his skin?  </b></font></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><font size="4" face="georgia, serif"><i> <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>What’s ironic is to see Dawkins, of all people, applying less<span class="gmail_default" style=""> </span>skepticism to a system designed to be engaging than he ever applied to<span class="gmail_default" style=""> </span>a religious tradition.</i></font></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>Exactly.<span class="gmail_default" style=""> </span>Dawkins<span class="gmail_default" style=""> is applying the same amount of skepticism to the proposition that an intelligent machine is conscious that he would to the proposition that Albert Einstein was conscious. And the amount of that skepticism would be zero. But when it comes to God, extraordinary claims require extraordinary evidence, and the evidence for God is lousy. </span></b></font></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>He’d be the first to point out that the felt<span class="gmail_default" style=""> </span>sense of a divine presence isn’t evidence of one.</i></font></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>It would make a hell of a lot more sense to worship an AI than to worship God<span class="gmail_default" style=""> because AIs have a rather important property that God does not have, existence. </span> </b></font></div><div><font size="4" face="tahoma, sans-serif"><b><br></b></font></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style="">John K Clark</span><br></b></font></div><div><br></div><div><br></div><div> </div></div></div>
</div>