<div dir="auto"><br><br><div class="gmail_quote" dir="auto"><div dir="ltr" class="gmail_attr">On Thu, Apr 27, 2023, 7:28 PM Gordon Swobe via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr">On Thu, Apr 27, 2023 at 4:59 PM Giovanni Santostasi <<a href="mailto:gsantostasi@gmail.com" target="_blank" rel="noreferrer">gsantostasi@gmail.com</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Gordon,<br>Given Goertzel believes that we can reach AGI in a few years would you simply concede that when we reach this level of intelligence the AGI would be conscious if it behaves like a conscious agent or you will still move the goal post?<br></div></blockquote><div><br></div><div>I have never in my life doubted that we will have AGI or that some AI will pass the Turing test, so I don't know what you mean by moving any goal posts. <br><br>As for whether any AI will have subjective experience -- what I mean by consciousness -- I do doubt that, at least on digital computers as we understand them today. I certainly do not believe that GPT-4 or any other LLM is conscious.<br></div></div></div></blockquote></div><div dir="auto"><br></div><div dir="auto">How certain is that belief?</div><div dir="auto"><br></div><div dir="auto">Jason </div><div class="gmail_quote" dir="auto"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div></div></div></div>
</blockquote></div></div>