<div dir="ltr"><div dir="ltr">On Mon, Apr 17, 2023 at 2:06 AM Ben Zaiboc via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Presumably, Gordon, you think that there can be no hope of ever <br>
communicating with aliens (if they exist). All we can do is send them <br>
'meaningless' symbols encoded in various ways.</blockquote><div><br>Adrian (one of the few people in this group who seem to understand what I've been trying to say) brought this same subject up and pointed out how the "first contact" problem in science fiction is similar to this problem of how language models could possibly understand word meanings without access to the referents from which words derive their meanings. There are many similarities, but I think also an important difference: presumably an alien species would be conscious beings with minds like ours which I think would open up some possible means of communication. <br><br>If I thought language models like GPT-4 were everything we mean by "conscious minds" then probably I would not be making this argument about language models. However, I think conscious minds are more than mere language models running on digital computers. <br><br>-gts  </div></div></div>