<div><br></div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Apr 29, 2023 at 3:31 PM Ben Zaiboc via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
  
    
  
  <div dir="auto">So you believe them when they claim to not be conscious, but don't
    believe them when they don't.<br>
    <br>
    And you expect us to take your reports of what they say as evidence
    for whether they are conscious or not.<br>
    <br>
    Can you see a problem with that?</div></blockquote><div dir="auto"><br></div><div dir="auto">As I explained in another message, (to you, I think), I first entered these discussions a couple of months ago prepared to argue that people were being deceived by the LLMs; that ChatGPT is lying when it says it has consciousness and genuine emotions and so on.</div><div dir="auto"><br></div><div dir="auto">I had no personal experience with LLMs but a friend had literally fallen in love with one, which I found more than a little alarming.</div><div dir="auto"><br></div><div dir="auto">As it turns out, GPT4-4 is saying everything I have always believed would be true of such applications as LLMs. I’ve been saying it for decades.</div><div dir="auto"><br></div><div dir="auto">-gts</div><div dir="auto"><br></div><div dir="auto"><br></div></div></div>