<div dir="ltr"><div dir="ltr">On Mon, Jan 9, 2023 at 7:43 PM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">On Mon, Jan 9, 2023 at 6:00 PM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">I believe the disconnect here is what sort of AI is meant.  I refer to AI in general.  I agree that a chat bot with no visual system can not know red like we can.  However, I believe that a similar AI that included a visual system with color sensors, like the robot depicted in your red apple/green apple/machine apple image, could have its own version of redness.</div></div></blockquote><div><br></div><div>So you're asserting that self driving cars represent the colors of objects they "see" with something more than strings of abstract 1s and 0s, which are specifically designed to be abstracted away from whatever physical properties happens to be representing them (with transducing dictionary mechanisms), and for which you can't know what the various strings mean, without a dictionary?</div></div></div></blockquote><div><br></div><div>No more than this is the case for our brains.  Which it isn't.</div><div><br></div><div>Also, self-driving cars aren't the best example, as most of them don't see in more than one color.</div><div><br></div><div>That said, my Tesla represents, to me via its dashboard, shapes nearby as abstractions from the 1s and 0s of its sensors, and those abstractions had to have been specifically designed.  Maybe it can't see in color, but it demonstrates perceiving a "carness" vs.a "busness" vs. a "pedestrianess" sense of nearby objects.  There are various concepts in programming, such as object oriented programming, that are all about attaching such qualities to things and acting based on which qualities a thing has.  The qualities are necessarily digital representations, rather than literally the actual physical properties.  Though even in this case it can be claimed that some sort of dictionary-like thing is involved.</div><div><br></div><div>And even in our brain, all thoughts can ultimately be reduced to the electrical potentials, neurotransmitter levels, and other physical properties of the neurons and synapses.  Just because there is a physical representation doesn't mean there isn't a larger pattern with properties that only emerge from the whole as a set rather than the individual parts, especially the parts in isolation.  Trying to determine which single neuron in the brain is the mind is as futile as trying to determine which single 1 or 0 in an executable file is the program.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>And you don't need to give a robot a camera, to augment its brain to have whatever it is in your brain that has a redness quality, so it can say: "oh THAT is what your redness is like."<br></div></div></div></blockquote><div><br></div><div>That augment seems to inherently require some sort of visual input - or a simulation of visual input - as part of it.</div></div></div>