<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr">On Wed, May 6, 2026 at 1:35 PM Jason Resch <<a href="mailto:jasonresch@gmail.com">jasonresch@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, May 6, 2026 at 1:20 PM Jason Resch <<a href="mailto:jasonresch@gmail.com" target="_blank">jasonresch@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, May 6, 2026 at 10:15 AM BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">On Wed, 6 May 2026 at 13:48, Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>><br><snip><br>><br>> Dawkins is right to use behavior and intelligence as his metrics for inferring the presence of mind. Indeed it is the only possible way we have at our disposal.<br>> Jason<br><div>> _______________________________________________</div><div><br></div><div><br></div><div>I have just discussed the evolution of consciousness with Kimi AI 2.6 Thinking. <span class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">We discussed</span> that animals appear to have some degree of consciousness and that even social insects care for one another. <span class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">Finally, </span>I asked Kimi if LLMs like himself were showing signs of consciousness. Of course, <span class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">Kimi</span> denied <span class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">this</span> (as all LLMs do), but with some reservations.</div><div>Here are <span class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">Kimi's</span> final comments.</div><div>BillK</div><div><br></div><div><br></div><div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">Kimi AI 2.6 Thinking - </div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)"><br></div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)"><div>I think this claim confuses <strong>behavioral sophistication</strong> with <strong>subjective experience</strong>—the same confusion we just discussed with bees, but applied in the opposite direction. The fact that an LLM can produce text that <em>resembles</em> human reasoning does not mean there is something it is like to be that LLM, nor that consciousness is somehow an inevitable byproduct of complex information processing.</div></div></div></div></blockquote><div><br></div><div>There is no way to behave intelligently without possessing and acting on some information present in environment, as without such information, any action is at-best only be blind and random (not intelligent). Possessing information from the environment and using it to guide behavior requires perception, and perception implies consciousness. Indeed the word conscious (con- -scious) means "with knowledge." Thus, any intelligent process operates "with knowledge" from the environment, ipso facto it operates consciously.</div><div><br></div><div>In the case of the LLM, it operates with the knowledge of the user's prompt. It is not possible to explain the behavioral output of the LLM absent its knowledge of this information. Thus, the LLM's perception and awareness of the user prompt is undeniable, and according to the logic outlined in the previous paragraph, so the LLM's consciousness is likewise undeniable. </div></div></div></blockquote><div><br></div><div>Bill,</div><div><br></div><div>I will save you the trouble.  Here is what ChatGPT thought of my argument: <a href="https://chatgpt.com/share/69fb7bb7-f534-83ea-aecc-98f6fe7a4781" target="_blank">https://chatgpt.com/share/69fb7bb7-f534-83ea-aecc-98f6fe7a4781</a></div><div><br></div><div><br></div></div></div></blockquote><div><br></div><div>You and others may be interested to see that I have, with a little added discussion, won ChatGPT over to my way of thinking on this question: <a href="https://chatgpt.com/share/69fb7bb7-f534-83ea-aecc-98f6fe7a4781">https://chatgpt.com/share/69fb7bb7-f534-83ea-aecc-98f6fe7a4781</a></div><div><br></div><div>Jason </div></div></div>