<div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Mon, Oct 6, 2025 at 10:07 AM <<a href="mailto:spike@rainier66.com">spike@rainier66.com</a>> wrote:</span></div></div><div class="gmail_quote gmail_quote_container"><div class="msg-9080567580291915986"><div lang="EN-US" style="overflow-wrap: break-word;"><div class="m_-9080567580291915986WordSection1"><p class="MsoNormal"><span style="font-size:11pt;font-family:Calibri,sans-serif"><u></u> </span></p></div></div></div></div><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class="msg-9080567580291915986"><div lang="EN-US" style="overflow-wrap: break-word;"><div class="m_-9080567580291915986WordSection1"><p class="MsoNormal"><span class="m_-9080567580291915986gmaildefault"><span style="font-family:Tahoma,sans-serif"><i style=""><font size="4"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>After studying how ChatGPT works, using matrix multiplication, I keep coming back to the same question I had 40 years ago: is human-like intelligence substrate dependent. </font></i></span></span></p></div></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>Events of the last couple of years have provided an answer to that question, a resounding<span class="gmail_default" style=""> <u>NO</u>.</span> </b></font></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class="msg-9080567580291915986"><div lang="EN-US" style="overflow-wrap: break-word;"><div class="m_-9080567580291915986WordSection1"><p class="MsoNormal"><span class="m_-9080567580291915986gmaildefault"><span style="font-size:13.5pt"><i style=""><font face="georgia, serif"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>The only reason I can think of is that computer software is deterministic: same input, same process, same output every time. </font></i></span></span></p></div></div></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>Not so.<span class="gmail_default" style=""> Even the top scientists at OpenAI </span>only have a hazy understanding of how GPT<span class="gmail_default" style="">-</span>5<span class="gmail_default" style=""> works, that's because it was not designed, it was grown. GPT-5 is never exactly the same from one minute to the next, so if you ask it the exact same question again you will never get the exact same answer again, the meaning may be the same but the wording will be different. </span></b></font></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style=""><br></span></b></font></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style=""> John K Clark</span></b></font></div><div><br></div><div><br></div></div></div>