<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Thu, Dec 29, 2016 at 8:29 AM, Jason Resch <span dir="ltr"><<a href="mailto:jasonresch@gmail.com" target="_blank">jasonresch@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">The software of a self driving car can differentiate a red light from a green light. It's high level functions know when it is seeing a red light it should stop, and when it sees a green light it can proceed.</div></blockquote><div><br></div><div>OK, although "know" is not the right word.<br><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">The high level part of the program understands there is a fundamental difference between these two states, and that they are exclusive: it should never expect to see a simultaneous red-green state.</div></blockquote><div><br></div><div>No, the program doesn't "understand" that: the programmer(s) implemented that requirement. How the program deals with unexpected conditions like simultaneous red and green lights depends, again, on what the programmer implemented. A safe thing to do would be recognize the red light regardless of the whether the green or yellow lights are lit and treat it as "do not proceed/stop".<br> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div> Millions of bytes of raw pixel data were distilled down to this binary sensation, which puts the driving software into states of different feelings: "the sensation of needing to stop" and the "the sensation of wanting to go".<br></div></blockquote><div> </div><div>No, that's just silly anthropomorphism. The program doesn't "feel" or "want" anything: it processes the inputs and does what it's told. Does a "hello world" program want to print "hello, world"? No, it just does, because the processor executes the instructions it was given.<br> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"> If we added the ability to speak in english to this high level driving software, we could ask it to describe the difference between red and green lights, but it wouldn't be able to describe it any differently than in the terms of how it makes it feel, since the high level part of the program doesn't have access to the low level raw pixel data.</div></blockquote><div><br></div><div>No, you can't just give a program the ability to speak. Pretending you can and imaging what it would say is silly. If you added speech capabilities to a program, what it would say depends entirely upon how those capabilities are coded. Like the driving code, it'd process inputs and do what the programmer directed it to do.<br><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>It is thought that the brain is similarly organized, Fodor's Modularity of Mind is an example. In this idea, the brain has many specialized modules, which take a lot of inputs and produce a simplified output shared with other regions of the brain. We experience this, rather than redness as the frequent action potentials of neurons connected to red-sensing cones in our retina, just as self driving cars perceive only the need to stop or the need to go, rather than the RGB values collected by its cameras.</div><div><br></div><div>All this goes to say, you can't explain the experience of red without explaining a good part of your brain and how the experience effects all the other parts of your brain. Quale aren't simple, they are extraordinary complex.</div></div></blockquote><div><br></div><div>Yes, brains are extraordinarily complex and not well understood.<br><br></div><div>-Dave<br></div></div><br></div></div>