<div dir="ltr"><div dir="ltr">On Tue, May 16, 2023 at 9:33 AM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><div><div><div><b>If we accept #2</b>, that zombies cannot think, believe, or know, then we end up with zombies that can solve complex problems without thinking, and zombies that can win at Jeopardy despite not knowing anything. This thinking without thinking, and knowing without knowing, appears to be an equally inconsistent notion.</div></div></div></div></div></blockquote><div><br></div><div>And yet this is exactly what LLMs are allegedly doing, with their internal models used as evidence for how they accomplish this.</div><div><br></div><div>You're going to need a lot more than "appears to be" for a proof, because to those who believe #2, there is no appearance of inconsistency here.</div></div></div>