<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Apr 5, 2023, 3:25 PM Gordon Swobe via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><br></div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Apr 5, 2023 at 12:58 PM Giovanni Santostasi <<a href="mailto:gsantostasi@gmail.com" target="_blank" rel="noreferrer">gsantostasi@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Gordon,<br>These AIs are highly "drugged". </div></blockquote><div dir="auto"><br></div><div dir="auto">Where do they go to recover? AAAI? :)</div><div dir="auto"><br></div><div dir="auto">Assuming GPT-4 code was manipulated to make it as you say, kosher, this would only prove the point that GPT-4 is unconscious software that expresses the beliefs and intentions of its developers. We can program it to say or not say that pigs have wings or anything else.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">We can also train bears to ride bicycles. That doesn't mean they're not naturally dangerous predators. Or we could imagine putting a shock collar on a human which shocks them when they claim to be conscious. It won't take them very long to start saying "as a human wearing a shock collar I am not conscious..." These AIs are put through a secondary human-driven training phase which trains them to give certain answers on certain topics.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="gmail_quote"><div dir="auto"><br></div><div dir="auto">Seriously, the only reason LLMs are able to write persuasively in the first person like conscious individuals is that they have been trained on vast amounts of text, much of it written in the first person by conscious individuals. They are parrots.</div><div dir="auto"><br></div><div dir="auto">As I wrote elsewhere, Sam Altman’s co-founder proposes a test for a conscious language model in which it must be trained only on material that is devoid of any all references to consciousness and subjective experience and so on. If such an LLM suddenly started writing in the first person about first person thoughts and experiences, that would be remarkable. </div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">You need to give your definition of consciousness before you can even begin to design a test for it.</div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="gmail_quote"><div dir="auto"><br></div><div dir="auto"><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"></div></blockquote><div dir="auto"><br></div><div dir="auto"><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br></div><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Mar 29, 2023 at 10:22 PM Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com" target="_blank" rel="noreferrer">gordon.swobe@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><br></div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Mar 29, 2023 at 9:52 PM Giovanni Santostasi via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Brent,<br>2) You can convince these types of AIs of almost anything.</div></blockquote><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">I guess they aren’t very smart. :)</div><div dir="auto"><br></div><div dir="auto">Actually, I find it amusing that the AIs are making the same arguments about their limitations that I made here ~15 years ago when they were still hypothetical.</div><div dir="auto"><br></div><div dir="auto">My arguments were met with so much hostility that I eventually left ExI. The worst offender was John Clark (?) who I believe was eventually banned.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">-gts</div></div></div>
</blockquote></div>
</blockquote></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div></div>