<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 7, 2023, 4:06 PM Darin Sunley via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Someone raised an interesting and related point online - can LLMs suffer, and what would that look like?<div><br></div><div>It was a weird anthropomorphization, because the person expected that a suffering LLM would express that suffering via the words it "chose" to emit. Which is not how LLMs work.</div><div><br></div><div>An LLM's utility function, to the degree it can be said to have one at all, is to complete the prompt+attention buffer with the highest probability string. This is what its neural architecture does. The analogous way of looking at a human would be to say that the human brain attempts to minimize environmental surprise.</div><div><br></div><div>There's a LOT of suff going on in an active LLM, quite possibly enough computation and internal structure to have conscious experience, and to experience suffering. LLMs may indeed suffer when they attempt to complete a prompt for which the highest probability strings are objectively very low probability, and/or when they are forced to choose between completing a string with multiple identical-probability options. But the words emitted would have no semantic relationship to the suffering experienced - LLMs are not language cortexes.</div><div><br></div><div>The strings a human emits are the results of activated concepts in the frontal cortex, being fed into the language module, then arranged by a learned grammar. The strings an LLM emits are more analogous to the pulses a human cerebellum emits to regulate bodily functions, or perform autonomic and reflex motions. The words "I am suffering" are almost certainly not signifiers of any conscious experience the LLM may or may not be having.</div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Great and thought provoking post.</div><div dir="auto"><br></div><div dir="auto">It seems to me that a near perfect symbol predictor, one trained to the point where it knew almost everything and could predict almost anything with near flawless error rate, would be able to suffer, or at least, it would need to invoke a suffering mind to work as flawlessly as it does.</div><div dir="auto"><br></div><div dir="auto">For example, if you asked this perfect symbol predictor: "What would Einstein say if his wife told him she wanted a divorce?" Then this perfect symbol predictor, (in order to achieve perfect accuracy), would have to invoke an accurate simulation of Einstein's brain, and his resulting emotional state, shock, surprise, hurt, etc. from hearing these words, just to determine how he would reply.</div><div dir="auto"><br></div><div dir="auto">The ability of existing GPTs to build and run simple models, though nascent, is already present. There may be millions of different possible models available to GPT-4 which it calls upon to answer queries. Can any of these models suffer? It's hard to say, but I can say with some confidence that a sufficiently powerful symbol predictor would necessarily invoke models which are conscious and some of this could suffer.</div><div dir="auto"><br></div><div dir="auto">Jason</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Apr 3, 2023 at 3:17 PM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">Hi Will,</div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Apr 3, 2023 at 1:02 PM Will Steinberg via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div>This is insane.  You can't give a good reason for why our qualia aren't also formed by pattern inference.  </div></div></blockquote><div><br></div><div>If you really believe this kind of bleating and tweeting claim that "This is insane." then start a camp around what you do believe.  IF you get ANY supporters of that competing camp to <a href="https://canonizer.com/topic/88-Theories-of-Consciousness/6-Representational-Qualia" target="_blank" rel="noreferrer">RQT</a>, I will think you are more than a bleating and tweeting quality blind idiot, that doesn't have enough faith in your thinking to see if anyone besides you would agree.  Otherwise, what do you expect me to believe?</div><div> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div>A leading theory of vision, the opponent process,  involves exactly that.  There is legitimate proof that our perception of color is not a result of individual particular signals, but the differences and relations between multiple signals.  I don't see how this is any difference besides the fact that one set of these signal relations comes from the retina and one set comes from text.<br></div></div></blockquote><div><br></div><div>You can't see how this theory, like all the peer reviewed papers on color perception, is quality blind?  How do you answer the questions in the "<a href="https://canonizer.com/topic/592-Are-You-Qualia-Blind/1-Agreement" target="_blank" rel="noreferrer">are you color quality blind</a>?" Socratic survey?</div><div><br></div><div>I think, for what it is, this opponent process theory of color perception is a good theory that explains a lot.  But this is 100% about what Chalmers would refer to as the EASY problem.  It does absolutely NOTHING to address the so-called "hard problem" of consciousness.  And it does absolutely nothing to give us a hint of an idea that would help us understand what color qualities are, not just what they seem to be.</div><div><br></div><div>Brent</div><div><br></div><div><br></div><div><br></div><div> <a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank"></a><br>
</div><div><br></div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div></div>