<div dir="ltr"><div dir="ltr">On Wed, Apr 26, 2023 at 1:10 PM efc--- via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">So basically, if the worlds opinion (philosophical, scientific or <br>
otherwise) starts to shift in favour of LLMs being conscious, this will be <br>
reflected in future training data, and the model might then, <br>
probabilistically start to say it is conscious?<br>
<br>
What I mean is that the machine will be conscious, when we as a species, <br>
via the training data "vote" that it is conscious through our tweets, <br>
scientific papers etc.?<br></blockquote><div><br></div><div>Through changes in definition, perhaps.  If most people began to speak of light at 440 nm wavelength as green instead of red, ChatGPT would reflect this change too. </div></div></div>