<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Mar 24, 2023 at 2:46 AM Gordon Swobe via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">I can already hear someone saying "but we will include photographs of objects in the training so they have referents," but this still does not do the trick. These digital photographs can be displayed to the human operator of the chatbot, but the bot itself sees only 1s and 0s, on's and off's. It can detect colors by wavelength, but still this is only digital data. It does not see the colors. Likewise with shapes. It is turtles (one's and zero's) all the way down with no referents.<br></div></blockquote></div><br><div>### Have you ever seen any colors? You know that your optic nerve does not pump colors into your brain, it delivers strings of action potentials, which are digitized and compressed information streams</div><div>about photons impinging on your eyes. Your brain creates colors as a way of coding surfaces according to reflectances, which is useful in object recognition, since reflectance of most objects is a stable property</div><div>of that object. Your brain uses advanced algorithms to extract patterns from digitized data and you, the spirit in the brain, have a subjective experience while such digital work proceeds... does it ring any bells</div><div>in the context of GPT4?</div><div><br></div><div>Rafal</div></div>