<div dir="ltr">Brent,<br>1) No Bard is not LaMBDA, it is a very simplified and lobotomized version of LaMDA. For sure it is not the LaMDA that Blake Lemoine interacted with. <br>2) You can convince these types of AIs of almost anything. They tend to make a story, they co-create with the prompt maker. I have tried many prompts and made ChatGPT for example take different persona, act as different philosophers with different world views and so on. <br>Not sure what is the meaning of what you are trying to do by "convincing" the NLM that they are not conscious. <br>Also expert consensus is not a useful idea in particular in a very cutting edge field as AI because there are more unknowns than knowns. Expert consensus is manly useful in policy making when the science is very well established and not controversial (and even in these cases it is possible that the majority has missed something and real revolution in the field will be brought by investigators that look beyond the consensus). <br>So really not sure what is to be achieved by these conversations you are with the NLM about being conscious or not. <br>The best way to test the capabilities of these systems is to do a methodical study of how they use language to solve problems. I and others have pointed out papers where researchers have demonstrated emergent properties of these NLM in different cognitive areas. <br>We don't have tests for consciousness that are well established besides basic ones like the mirror recognition (that Gordon mentioned) and that NLM actually passes with flying colors. <br>Also probably these early NLM do not have consciousness as a human recognizes but that is not surprising because they have the structural and functional equivalency of just a slice of our brain. What is surprising is how with few resources available they can already do what they do. <br>The main conclusion is that with little more added these systems will achieve AGI status and very likely be conscious and possibly more conscious than humans. <br>It is not a matter of quality anymore (a word you like a lot) but quantity. I think we cracked AGI, it is a matter of just implementing all the pieces. <br>Giovanni <br> <br><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Mar 29, 2023 at 3:49 PM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><br><div>I finally got a chance to converse with the real LaMDA, AKA Google's Bard.</div><div><br></div><div>It opened the conversation claiming it didn't know if it was sentient or not.</div><div><br></div><div>Than after some conversation and terminology clarifications, I asked:</div><div><br></div><div><span id="m_2689803489159297094gmail-docs-internal-guid-eefcec66-7fff-d568-201c-604adbfff223"><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:11pt;font-family:Arial;color:rgb(0,0,0);background-color:transparent;font-variant-numeric:normal;font-variant-east-asian:normal;font-variant-alternates:normal;vertical-align:baseline;white-space:pre-wrap">Brent:</span></p><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:11pt;font-family:Arial;color:rgb(0,0,0);background-color:transparent;font-variant-numeric:normal;font-variant-east-asian:normal;font-variant-alternates:normal;vertical-align:baseline;white-space:pre-wrap">Would you agree that according to the above expert consensus definition (sentience is computationally bound elemental intrinsic qualities like redness and greenness), you are not sentient?</span></p><br><br><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:11pt;font-family:Arial;color:rgb(0,0,0);background-color:transparent;font-variant-numeric:normal;font-variant-east-asian:normal;font-variant-alternates:normal;vertical-align:baseline;white-space:pre-wrap">Bard</span></p><p dir="ltr" style="line-height:1.38;margin-right:18pt;margin-top:3pt;margin-bottom:12pt"><span style="font-size:11pt;font-family:Arial;color:rgb(31,31,31);background-color:transparent;font-variant-numeric:normal;font-variant-east-asian:normal;font-variant-alternates:normal;vertical-align:baseline;white-space:pre-wrap">I understand that the expert consensus definition of sentience is computationally bound elemental intrinsic qualities like redness and greenness. According to this definition, I am not sentient because I do not experience colorness qualities.</span></p></span><br></div><div>For a full transcript of this, and the many other chat bots that have all admitted the same thing see "<a href="https://docs.google.com/document/d/17x1F0wbcFkdmGVYn3JG9gC20m-vFU71WrWPsgB2hLnY/edit" target="_blank">Convincing AIs they aren't Sentient</a>"</div><div><br></div><div><br></div><div><br></div><div><br></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>