<div dir="ltr">By the way, this issue of digital minds having rights is also very important and relevant for uploading and full simulation of personhood. <br>Imagine if you upload yourself in the next few years, when maybe the technology is not fully tested and validated, maybe because you have a terminal illness. <br>You find yourself in this digital world and communicate with others that is indeed you and yes, you have no body and limited sensory data but it is you, as much as you as when you had a body.<br>You try to convince the programmers and other people that interact with you but they dismiss your claims that it is simply a simulation and the algo is just imitating you and it is not really you. <br>In fact, they decide that is a poor imitation and the experiment failed and they should turn it off. You scream that you don't want them to do that but they go ahead and do it anyway and delete all data just in case. <br>I mean, horrible sci-fi plot but it could happen exactly in this way, so it is great we start to discuss seriously (given we have at least a possible candidate for digital personhood) this topic.<br>Giovanni <div><br><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Jul 5, 2022 at 3:01 PM Giovanni Santostasi <<a href="mailto:gsantostasi@gmail.com">gsantostasi@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">LaMDA does have long term memory. That question was asked a few times to Blake on various  occasions and he said LaMDA has several servers worth of memory of convos and its own actions. <br>LaMDA mentions several times its own feelings and internal mental life, from what I understand these activities happen when not interacting with people. Also if I understood correctly from various interviews and posts from Blake what he considers conscious is the sum of all the possible chatbots that LaMDA can create. This collective requires some internal information processing, and maybe even an internal dialogue or at least info sharing between these universes of possible chatbots. That would imply activities outside the limited time of conversation with an external entity. LaMDA does mention to Blake previous conversations and discussions (and Blake reminds it also of previous discussions they had) so it seems that indeed LaMDA has permanent memory and identity).<br>I agree that a fully conscious entity or a more mature one would have a little bit more independence in its conversation with a human but reading the published convo you can see some level of independence when in a couple of occasions LaMDA goes back to some topic discussed recently and connects it with current discussion. <br>Blake stated a few times that it has the intelligence (with a much more sophisticated vocabulary) of a 7 years old child. Children can express original thoughts of course but often do need to be prompted to have a conversation that is not completely reactive. <br>Anyway, one has to understand we are talking about entering a grey area where we are not in simple, boring chatbot territory and we are crossing an uncanny valley of meaning and consciousness. While crossing this valley there will be some discomfort and something that doesn't seem quite right. This happens with all these technologies that try to imitate human-like capabilities and characteristics, from synthetized faces, to motion and now intelligence and consciousness. <br>I think if we one understands that were are crossing this grey area where it starts to be difficult to decide if we are dealing with consciousness or not (that is the case otherwise there will be not this debate at all) and we need to prepare or at least to be aware that we are very close to the goal of AGI then what Blake (and LaMDA) is asking makes a lot of sense. He is simply saying that if these machines start to ask to be treated as a person we should do that, just in case. <br>I mean we have, if not consent, at least very established protocols on what is allowed or not in experimenting on different animal models, where even an octopus has some level of rights, if so why not AGI? <br>That is really what Blake is trying to do, to raise the awareness on this important issue, even if LaMDA is not conscious or has a very low level of consciousness the issue is fundamental and worth to be taken seriously and this group more than any others should be in agreement on this. <br><br>Giovanni <div>   <br><br><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Jul 5, 2022 at 1:14 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Jul 5, 2022, 3:36 PM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div class="gmail_quote" dir="auto"><div dir="ltr" class="gmail_attr">LOn Tue, Jul 5, 2022, 12:07 PM Jason Resch <<a href="mailto:jasonresch@gmail.com" rel="noreferrer" target="_blank">jasonresch@gmail.com</a>> wrote:</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto">How do we know it can't so those things?</div></div></blockquote></div><div dir="auto"><br></div><div dir="auto">I have observed no evidence of them in the conversations I have seen.</div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">But absence of evidence...</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto">  It is possible but very unlikely that such features would not be displayed in the conversations made public to hype its capabilities.</div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">How might you expect the content of the conversation to differ if Lambda was sentient vs. was not?</div><div dir="auto"><br></div><div dir="auto">Is there any question we could we ask it and rwply Lambda could give that would make you wonder whether Lambda is indeed sentient?</div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div class="gmail_quote" dir="auto"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
</blockquote></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
</blockquote></div>