<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Apr 17, 2023, 11:15 AM Tara Maya via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="line-break:after-white-space"><div>What is a cat aware of when it chases a bit of string? </div><div><br></div><div>When my cat is busy doing anything else, except eating or mating, he can be easily distracted by a piece of string. He seems not only fascinated by it but almost compelled to pounce on it. </div><div><br></div><div>I myself am not so compelled to pounce on wiggling string. However, I am fascinated, almost compelled to watch, if someone waves a video in front of me that shows an adorable kitten pouncing on wiggling string.</div><div><br></div><div>Sometimes I have thoughts (like this one) while watching cats play with string, but mostly, I think my brain temporarily does into a mode that is a thoughtless feeling of, "Awwww, how cute!" </div><div><br></div><div>Is either of these states--pouncing cat or human in cute-overload--really conscious? Or do I become conscious only when I become aware of myself watching the cat and thinking how cute it is, consciously comparing my state of mine and trying to project myself into the cat's frame of mind?</div><div><br></div><div>It is easy to personify the cat and imagine that he is able to leap from one kind of (mindless) awareness to another kind of (thoughtful) awareness, but is that justified? </div><div><br></div><div>I am able to ignore my own mindless state most of the time, except when I am trying consciously to recreate it, as during zazen. When you are trying not to have thoughts, it's almost impossible to not have thoughts. But when you are simply caught unaware by the adorable pouncing of a cat, it is easy to have no thought except, "CUTE!" (And not the word, but the feeling, which I can't even properly describe without many more words to circle around it--most of which would only point to examples of cuteness.)</div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Nice comparison. Perhaps it's when one's instinctual circuits take control over our default state / executive system as the dominant player in the brain.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="line-break:after-white-space"><div><br></div><div>Maybe cats are doing zazen when they sit like potatoes in the window sill. But I don't think they need to. I think they are naturally in a state of thoughtless but highly sensitive (ie sensory-based) awareness. I don't think awareness and self-consciousness are the same thing, but quite different things.</div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I like the thought of naturally meditative cats.</div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="line-break:after-white-space"><div dir="auto"></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">Perhaps what you are describing here is the difference between first-, second- and third-order judgements? At least it reminded me of this passage:</div><div dir="auto"><br></div><div dir="auto">“What I call third-order judgements are judgements about conscious experience as a type. These go beyond judgements about particular experiences. We make third-order judgments when we reflect on the fact that we have conscious experiences in the first place, and when we reflect on their nature. I have been making third-order judgements throughout this work. A typical third-order judgment might be, “Consciousness is baffling, I don’t see how it could be reductively explained.” Others include “Conscious experience is ineffable,” and even “Conscious experience does not exist.</div><div dir="auto">Third-order judgements are particularly common among philosophers, and among those with a tendency to speculate on the mysteries of existence. It is possible that many people go through life without making any third order judgements. Still, such judgements occur in a significant class of people. The very fact that people make such judgements is something that needs explanation.</div><div dir="auto">To help keep the distinctions in mind, the various kinds of judgements related to consciousness can be represented by the following:</div><div dir="auto">- First-order judgment: That’s red!</div><div dir="auto">- Second-order judgment: I’m having a red sensation now.</div><div dir="auto">- Third-order judgment: Sensations are mysterious.”</div><div dir="auto">-- David Chalmers in "The Conscious Mind" (1996)</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="line-break:after-white-space"><div dir="auto"><br></div><div><br></div><br><div><br><blockquote type="cite"><div>On Apr 16, 2023, at 10:55 PM, Rafal Smigrodzki via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:</div><br><div><blockquote class="gmail_quote" style="font-family:Helvetica;font-size:24px;font-style:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;text-decoration:none;margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>This is one of the reasons why I do not subscribe to e.g. panpsychism and do not believe all behaving animals have consciousness.<span> </span></div></div></div></blockquote><div><br></div><div>About where would you draw the line on the phylogenetic tree?</div></div></div></blockquote><div style="font-family:Helvetica;font-size:24px;font-style:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;text-decoration:none"><br></div><div style="font-family:Helvetica;font-size:24px;font-style:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;text-decoration:none">### About where you start having a global workspace in the brain. So, protozoans, corals, nematodes are out. Of all the animal phyla I would guess only Chordata, Mollusca and Arthropoda might possibly have some consciousness, and I am not so sure about the arthropods. Among chordates I would guess only the smartest fish, smartest amphibians, smartest reptiles but most if not all mammals and birds.</div><div style="font-family:Helvetica;font-size:24px;font-style:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;text-decoration:none"><br></div><div style="font-family:Helvetica;font-size:24px;font-style:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;text-decoration:none">Of course, consciousness is not an on-off quality: At the level of a goldfish, if it has any consciousness, it's a pale shadow of the human mind, even the mind of a newborn baby. You mentioned in another thread that there may be many levels of consciousness going beyond human, and I agree, most likely we are still at the low end of the spectrum of consciousness that can be implemented in our physical world.</div><div style="font-family:Helvetica;font-size:24px;font-style:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;text-decoration:none">------------------------------</div><blockquote class="gmail_quote" style="font-family:Helvetica;font-size:24px;font-style:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;text-decoration:none;margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>There is a whole lot of complicated information processing that can guide goal-oriented behavior that can happen without conscious experience.</div></div></div></blockquote><div><br></div><div>I think we need to justify our assumption of cases where no consciousness is present. When things lack an ability to talk, or remember, it can easily be taken as a case where there is no consciousness present. But to me this isn't enough to reach any firm conclusion as to the presence or absence of a mind.</div></div></div></blockquote><div style="font-family:Helvetica;font-size:24px;font-style:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;text-decoration:none"><br></div><div style="font-family:Helvetica;font-size:24px;font-style:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;text-decoration:none">### Yes, absolutely. We can work backwards from the neural correlates of consciousness in humans, look for analogous structures in other entities (animals, AI) and if we see neither an analogue nor the kind of complex behavior that in humans is associated with conscious processing, then we are reasonably justified in believing the entity is not conscious in the way a human is.</div></div></blockquote></div><br></div>_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div></div>