<div><br></div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Apr 6, 2023 at 5:13 AM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;padding-left:1ex;border-left-color:rgb(204,204,204)"><div dir="auto"><div dir="auto">Please see and understand the images in this Twitter thread.</div></div></blockquote><div dir="auto"><br></div><div dir="auto">In know all about Sydney, thanks. As I have mentioned, LLMs can converse in the first person like conscious individuals on account of they are trained on vast amounts of text much of it written in the first person by conscious individuals. They are parroting what a conscious person speaking in the first person looks like in language. This is why the founders of OpenAI say that the only true test of consciousness in an LLM would require that it be trained on material completely devoid of references to first person experience, etc.</div><div dir="auto"><br></div><div dir="auto">I do not dispute that the developers have the capacity to turn this “first person conscious individual” feature off, or that to some extent they might have done so with GPT-4. It’s just software except in our extropian fantasies.</div><div dir="auto"><br></div><div dir="auto">-gts </div></div></div>