<div dir="ltr"><br><div>Good point, we for sure compute both abstractly and phenomenally.</div><div>I changed the name in the camp statement to:</div><div><span style="color:rgba(0,0,0,0.85);font-family:Asap,-apple-system,BlinkMacSystemFont,"Segoe UI",Roboto,"Helvetica Neue",Arial,"Noto Sans",sans-serif,"Apple Color Emoji","Segoe UI Emoji","Segoe UI Symbol","Noto Color Emoji";font-size:38px">No Rights for Abstract Only Systems</span></div><div><br></div><div>Whatever is representing my thoughts and memory around something like the number 1, and the way they are computationally bound into meaningful subjective consciousness relationships we are aware of are all still like something.  Whereas it doesn't matter what is representing the number 1 in an abstract computer, by design.</div><div><br></div><div>So I'm trying to figure out how to state how your beliefs differ from mine.</div><div><br></div><div><br></div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Jul 2, 2023 at 5:43 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Jul 2, 2023, 7:07 PM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Hi Jason,<div>This Jeremy Bentham statement could be saying the same thing we are trying to say in the "<a href="https://canonizer.com/topic/849-Robot-or-AI-Rights/2-No-Rights-for-Abstract-Systems" rel="noreferrer noreferrer" target="_blank">No Rights for Abstract Systems</a>" camp.</div><div><br></div><div>But I suspect you are disagreeing with the camp statement, and defining terms differently than I'm thinking?</div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I don't see that there's any way one can define an "abstract system" in a way that doesn't include ourselves.</div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Jul 2, 2023 at 4:54 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Jul 2, 2023, 5:32 PM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><br><div>It's interesting how much diversity of thinking there is here on the rights of AI systems.</div><div>I'm very interested in what everyone thinks, and would love to have a more formal and dynamic representation of what everyone currently believes on this.</div><div>I've created a topic for this: "<a href="https://canonizer.com/topic/849-Robot-or-AI-Rights/1-Agreement" rel="noreferrer noreferrer noreferrer" target="_blank">Robot or AI Rights</a>".</div><div>And I've started the "<a href="https://canonizer.com/topic/849-Robot-or-AI-Rights/2-No-Rights-for-Abstract-Systems" rel="noreferrer noreferrer noreferrer" target="_blank">No Rights for Abstract Systems</a>" camp.</div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">“The question is not, Can they reason?, nor Can they talk? but, Can they suffer? Why should the law refuse its protection to any sensitive being?” <br></div><div dir="auto">-- Jeremy Bentham</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>It'd be great to have camps for people who currently think differently, and to see which views have the most consensus, and to track this over time as science is able to demonstrate more about what consciousness is and isn't.</div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Jul 2, 2023 at 12:39 PM William Flynn Wallace via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:large;color:rgb(0,0,0)">Except for smell, sensations come to us from our unconscious mind.  There they get routed to various brain areas and then, only perhaps (they could be shut down and never get to the forebrain) to upper areas.  These processes are aware of the nature of the stimuli and know where to send them, but they are not available to our conscious mind.</div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:large;color:rgb(0,0,0)"><br></div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:large;color:rgb(0,0,0)">Or you could say that these unconscious processes are really conscious but simply not available to what we call our conscious mind.  Thus you can have awareness or consciousness in part of the brain but not the part we think of as our consciousness.</div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:large;color:rgb(0,0,0)"><br></div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:large;color:rgb(0,0,0)">If an organism deals in some appropriate way with incoming stimuli you could call it aware.  Amoebas do that.  </div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:large;color:rgb(0,0,0)"><br></div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:large;color:rgb(0,0,0)">bill w</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sun, Jul 2, 2023 at 1:02 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Stuart,<div><br></div><div>Thank you for putting your argument into such clear words. I agree completely with your definition of CAP.</div><div><br></div><div>Also, those videos of the AI and robotic soccer players are great. I also agree it is not logically possible to say these entities are not aware of the ball, and what else is consciousness, beyond "awareness"? If the bots are aware of the ball (which they plainly are), then they're conscious of it.</div><div><br></div><div>Jason</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Jul 1, 2023 at 6:16 PM Stuart LaForge via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br>
Quoting Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>>:<br>
<br>
> If you believe that philosophical zombies are logically impossible, then<br>
> consciousness is logically necessary (in the presence of certain<br>
> behavioral, sensory, and introspective capacities).<br>
<br>
Actually, I would more rigorously say that philosophical zombies are  <br>
impossible precisely BECAUSE they violate what I call causal awareness  <br>
principle or CAP. Causal awareness is hereby defined as the ability to  <br>
sense, act on, and react to ones environment as well as ones own  <br>
effect on it. Anything that is causally aware is able to act  <br>
rationally. Consciousness is necessary, but not sufficient, for causal  <br>
awareness, and therefore, rational action. However, something cannot  <br>
act rationally without being conscious too. Acting in ones own best  <br>
interests requires consciousness. A sentient being must be conscious  <br>
of those interests and the means to achieve them in the context of a  <br>
changing environment.<br>
<br>
Here rational action is used as a proxy for intelligent behavior. That  <br>
is to say that philosophical zombies cannot exist because they would  <br>
have no way to display intelligent goal-seeking behavior because they  <br>
would not be conscious of any goal; Therefore, they could not be  <br>
conscious of how to navigate the environment to achieve a goal; nor,  <br>
would they be conscious of whether they had achieved the goal or not.  <br>
That is to say, that logically, a philosophical zombie does not have  <br>
the logical properties necessary to fit its own definition.  <br>
Philosophical zombies are an unwarranted assumption to make the Hard  <br>
Problem of consciousness seem like a different question than the  <br>
so-called Easy Problem, whereas, CAP says that the complete solution  <br>
of the Easy Problem, is also the solution to Hard Problem.<br>
<br>
While pre-programmed behavior could mimic rational action in the short  <br>
term, any sufficient change in the p-zombie's environment, like a new  <br>
obstacle, would thwart it, and expose it as a zombie. In the harsh  <br>
world of nature, philosophical zombies, even if they came to exist by  <br>
some extraordinary chance, would quickly go extinct.<br>
<br>
Therefore philosophical zombies, as opposed to fungal zombies, are  <br>
both logically and physically impossible. It is, in short, impossible  <br>
to do what humans evolved from worms to be able to do, without being  <br>
in some measure, more conscious than a worm.<br>
<br>
> Accordingly, I believe<br>
> that consciousness was an unavoidable consequence during the course of<br>
> evolution of life on Earth as once nature created creatures having certain<br>
> capacities/abilities, consciousness had no other choice but to exist, it<br>
> became logically necessary.<br>
<br>
Yes, there is certainly a natural history of consciousness. You can  <br>
look at the evolution of the nervous system of vertebrates through the  <br>
process of encephalization and decussation and see a causal narrative.  <br>
The moment life decided to detach itself from the ocean bottom and  <br>
move around looking for food, a complete, or open, digestive system  <br>
with a seperate mouth and anus became advantageous. Once it started  <br>
moving mouth first through the world, sensory organs like eyes or  <br>
antennae became advantageous; Moreover, those creatures which evolved  <br>
sensory organs like taste-buds and eyes near their mouths, as opposed  <br>
to near their anus, had a survival advantage.<br>
<br>
Once an organism had a concentration of senses on its rostral or front  <br>
end, that end became differentiated from the caudal or rear end of the  <br>
organism. The cluster of sensory organs became a rudimentary head. As  <br>
part of that differentiation called encephalization, it became  <br>
advantageous for that organism to develop an organ to process the  <br>
sensory information and locate it near the sense organs. The organ I  <br>
speak of began as a small nerve cluster. As successive generations of  <br>
the organism started moving through the environment faster, sensing  <br>
and avoiding danger, finding food and resources, weathering natural  <br>
disasters and extinction events, and generally leading more  <br>
complicated lives, it finally evolved into the conscious brain.<br>
<br>
> The same, I believe, is true for AI. It is unavoidable when we create<br>
> machines of certain abilities, and I believe existing software is already<br>
> conscious. For example, my open source project on artificial sentience<br>
> could be such an example: <a href="https://github.com/jasonkresch/bots" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">https://github.com/jasonkresch/bots</a><br>
<br>
Yes, I agree. These AI learned how to play soccer/football on their  <br>
own. They are certainly conscious of one another, the ball, and their  <br>
goals and that consciousness allows some very complex goal-seeking  <br>
behavior to emerge. By the CAP, these AI agents in the following video  <br>
presentation of a recent Science paper by Lui et al.<br>
<br>
<a href="https://www.youtube.com/watch?v=KHMwq9pv7mg&t=10s" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">https://www.youtube.com/watch?v=KHMwq9pv7mg&t=10s</a>.<br>
<br>
Some might object because the consciousness is expressed within a  <br>
virtual setting. But that's all right because Google built bodies for  <br>
the little guys:<br>
<br>
<a href="https://www.youtube.com/watch?v=RbyQcCT6890" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">https://www.youtube.com/watch?v=RbyQcCT6890</a><br>
<br>
If you push one over, they stand right back up. So yeah, the CAP says  <br>
they are rudimentarily conscious because they display causal awareness  <br>
and rational action. They lie somewhere between thermostats and humans  <br>
on the consciousness scale. Someday, their consciousness may far  <br>
surpass ours.<br>
<br>
Stuart LaForge<br>
<br>
<br>
<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>