<div dir="ltr"><div dir="ltr">Hi Adrian</div><img src="cid:ii_lcqhkczf0" alt="3_functionally_equal_machines_tiny.png" width="320" height="118"><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Jan 9, 2023 at 9:40 PM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">On Mon, Jan 9, 2023 at 7:43 PM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">On Mon, Jan 9, 2023 at 6:00 PM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">I believe the disconnect here is what sort of AI is meant.  I refer to AI in general.  I agree that a chat bot with no visual system can not know red like we can.  However, I believe that a similar AI that included a visual system with color sensors, like the robot depicted in your red apple/green apple/machine apple image, could have its own version of redness.</div></div></blockquote><div><br></div><div>So you're asserting that self driving cars represent the colors of objects they "see" with something more than strings of abstract 1s and 0s, which are specifically designed to be abstracted away from whatever physical properties happens to be representing them (with transducing dictionary mechanisms), and for which you can't know what the various strings mean, without a dictionary?</div></div></div></blockquote><div><br></div><div>No more than this is the case for our brains.  Which it isn't.</div><div><br></div><div>Also, self-driving cars aren't the best example, as most of them don't see in more than one color.</div><div><br></div><div>That said, my Tesla represents, to me via its dashboard, shapes nearby as abstractions from the 1s and 0s of its sensors, and those abstractions had to have been specifically designed.  Maybe it can't see in color, but it demonstrates perceiving a "carness" vs.a "busness" vs. a "pedestrianess" sense of nearby objects.  There are various concepts in programming, such as object oriented programming, that are all about attaching such qualities to things and acting based on which qualities a thing has.  The qualities are necessarily digital representations, rather than literally the actual physical properties.  Though even in this case it can be claimed that some sort of dictionary-like thing is involved.</div><div><br></div><div>And even in our brain, all thoughts can ultimately be reduced to the electrical potentials, neurotransmitter levels, and other physical properties of the neurons and synapses.  Just because there is a physical representation doesn't mean there isn't a larger pattern with properties that only emerge from the whole as a set rather than the individual parts, especially the parts in isolation.  Trying to determine which single neuron in the brain is the mind is as futile as trying to determine which single 1 or 0 in an executable file is the program.</div></div></div></blockquote><div><br></div><div> Yes, I understand all this, and it is all true.</div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>And you don't need to give a robot a camera, to augment its brain to have whatever it is in your brain that has a redness quality, so it can say: "oh THAT is what your redness is like."<br></div></div></div></blockquote><div><br></div><div>That augment seems to inherently require some sort of visual input - or a simulation of visual input - as part of it.</div></div></div></blockquote><div><br></div><div>But this indicates that I am talking about something completely different than what you are talking about.</div><div>You seem to be ONLY talking about the fact that all 3 of the systems in the above image can tell you the strawberry is red.  They can all pick the strawberry (or tell you how this is different from a car, bus, or pedestrian), and they can all be equally intelligent.</div><div><br></div><div>Your last statement seems to indicate you don't understand what color is and isn't (if you do understand this model of color, could you explain it?).  It indicates to me you don't understand the radically different way the above systems do computation.  My prediction is that one way is far more efficient at performing the required computation than the other, and that is why evolution did it the efficient phenomenal way, and not the abstract way which requires more abstracting dictionaries.  (the same as software running directly on bare hardware is more efficient than software running on an abstracting virtual machine, requiring more mapping dictionaries.)</div><div><br></div><div><br></div><div><br></div><div> </div><div><br></div><div> </div></div></div>