<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Mar 10, 2025, 11:23 AM efc--- via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
> I think we have largely reached a conclusion on all topics raised in this<br>
> thread. I'll just leave a few responses below to some new things you raised.<br>
<br>
Agreed! There might be one or two small things, I'll have a look and heavily<br>
delete the rest.<br></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Very nice 👍</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
>       > A = Beethoven's 5th<br>
>       > B = Scribblings of the notes of Beethoven's 5th on paper<br>
>       > C = An orchestral rendition Beethoven's 5th<br>
>       ><br>
>       > If there were a true identity, if the scribblings on paper are identical<br>
>       > to Beethoven's 5th, then A = B. Likewise, if there is an identity between the<br>
>       > orchestral rendition and Beethoven's 5th, then A = C.<br>
>       ><br>
>       > But then, by the transitive nature of identity, then B ought to be identical<br>
>       > with C, yet the scribblings on paper are not identical with the orchestral<br>
>       > rendition. B ≠ C.<br>
>       ><br>
>       > Somewhere along the way an error was made. Can you spot it?<br>
><br>
>       I think this is a matter of definition. How would you define B5? As a process?<br>
> <br>
> I would define Beethoven's 5th as a particular mathematical structure,<br>
> isomorphically present in all its various manifestations (as sheet music, live<br>
> performances, as various numeric or alphanumeric lists of notes, in the<br>
> particular patterns of holes in player piano rolls, etc.) this structure, as a<br>
> mathematical pattern, is abstract, informational, and immaterial. The<br>
> isomorphism common in all the various manifestations allow us to recognize<br>
> what is the same between them, but there is not an identity between the<br>
> structure to which they are all isomorphic, and each of its various<br>
> manifestations. The sheet music ≠ the orchestral performance ≠ the piano roll.<br>
> So then we cannot make an identity between any of those manifestations and the<br>
> abstract mathematical pattern, the abstract mathematical pattern is its own<br>
> unique "thing", not identical with any of its various isomorphisms.<br>
<br>
For me I think it goes back to process. Depending on the context, dialogue or<br>
situation, different things can represent B5 for me. It can be the sequence of<br>
notes. It could (if written today) be the copyrighted work. It could be the<br>
process of me enjoying the execution of the notes. It all depends on the<br>
situation and the purpose of the investigation.<br></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Yes I think this is what I was saying, and what I meant by all instances containing the same isomorphic pattern.</div><div dir="auto"><br></div><div dir="auto">But note that strictly speaking no instance can be "identical with" this pattern, without (by implication) all instances being identical with each other (which is clearly not the case). Therefore, the pattern is something distinct from any of its particular instantiations.</div><div dir="auto"><br></div><div dir="auto">Do you understand my reasoning here?</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
>       > Would you feel any more content with some further confidence (provided by<br>
>       > philosophical thought experiments) to know there are reasons we can be quite<br>
>       > sure these other beings are conscious?<br>
><br>
>       Depends on the thought experiment. I might. Try me! ;)<br>
> <br>
> I lay them all out starting on page 20 of section 3.5: <a href="https://drive.google.com/drive/folders/1-SMVWgQFfImXNRRuuB9kQwhgxPLAwxYL" rel="noreferrer noreferrer" target="_blank">https://drive.google.com/drive/folders/1-SMVWgQFfImXNRRuuB9kQwhgxPLAwxYL</a><br>
> <br>
> In brief, the thought experiments I cover are: <br>
>  1. A "Consciousness" gene (page 26)<br>
>  2. Philosophical Zombies (page 32)<br>
>  3. Zombie Earth (page 38)<br>
>  4. Lying Zombies (page 46)<br>
>  5. A Mental Lockbox (page 51)<br>
>  6. Conscious Behaviors (page 59)<br>
>  7. The Argonov Test (page 73)<br>
>  8. Consciousness and Intelligence (page 81)<br>
>  9. Reflective Zombies (page 88)<br>
>  10. Mary's Room (102)<br>
>  11. Neural Substitution (135)<br>
>  12. Fading Qualia (151)<br>
>  13. Inverted Spectrum (182)<br>
>  14. Dancing Qualia (189)<br>
>  15. Hemispheric Replacement (198)<br>
> Thought experiments 1-5 rule out zombies, and this is shown to rule out epiphenomenalism.<br>
<br>
Based on a materialist outlook, I think there is no possibility of a<br>
philosophical zombie. I don't quite see how it could be meaningful. At the end<br>
of the day, we see what we see, and the "subjective" details of what goes on<br>
inside, is forever blocked from objective investigation.<br></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Good. I think most philosophers today reject zombies and epiphenomenalism.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
> Thought experiments 6-8 establish by what means we can test for and verify the presence of consciousness.<br>
<br>
I think conscious behaviors is a good way. I think it flows from a materialist<br>
point of view.<br></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I would say it follows from a functionalist view, but not a type-physicalist view. The type-physicalist would accept you could have something like an android, that by all accounts, acts like a conscious, emotive, perceptive, reflective human, without having any mind at all (because it's brain isn't made of the right material stuff).</div><div dir="auto"><br></div><div dir="auto">So if you think behavioral indicators can justify belief in the presence of a mind, then I think you are leaning more towards the functionalist conception of mind.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
> Thought experiments 11-15, in my view, more or less conclusively establish functionalism as the only workable theory of<br>
> consciousness.<br>
<br>
This might be for another thread.<br></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Sure. Would you like to start it?</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
>       Probably the project of lauching a rocket, the first time, contains both<br>
>       speculation, and application in the form of tests and experiments. Thought<br>
>       experiments, reasoning etc. can be valuable tools. They can also lead us astray.<br>
> <br>
> An unforseen defect might of course, cause it to explode or fail mid flight,<br>
> but the general laws of physics, for gravity, thermodynamics, enable the<br>
> engineers and rocket scientists to compute exactly, for example, how much fuel<br>
> the rocket should need to get into orbit, or get to the moon, etc.<br>
<br>
True.<br>
<br>
> Consider, for example, that Boeing's 777 aircraft was designed entirely on a<br>
> computer. There were no test flights, or prototypes built to test and revise<br>
> things along the way. The plane went straight from its design (based entirely<br>
> on models and simulations based on our understanding of physical laws)<br>
> straight into production of the millions of parts that would all need to fit<br>
> and work together. And, it turned out that when all those parts were assembled<br>
> for the first time, the result was a working aircraft that had the range, and<br>
> slight speed, and other characteristics that they had predicted. Such is the<br>
> state of our understanding of physics, and the confidence we have in using<br>
> those models to make predictions.  <br>
<br>
True. But it was not designed that way in isolation. It was supported by<br>
countless hours of experience, experiment, knowledge, empiricism, science, that<br>
across generations, went into that software and design.<br></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Yes, so all this evidence, and all this confidence that our laws and models work, are reliable, and are accurate, to the degree that we'll build a plane and put a person in it, suggests to me that this same confidence (in the reliability of the laws as we understand them) applies to our physical bodies and brains.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
>       > If you would use the word speculation to cover the behavior of the rocket<br>
>       > scientists in designing a rocket, then you are consistent. As I am suggesting,<br>
>       > no more than what the same laws of physics tell us ought to happen and am<br>
>       > assuming only that the laws apply everywhere to all physical things in this<br>
>       > universe. If that requires speculation, then everything everyone ever does is<br>
>       > speculation.  <br>
><br>
>       I could say speculate, and then those speculation are tested, when the rocket<br>
>       takes off the first time.<br>
> <br>
> Do you "only speculate" that the sun will rise tomorrow?<br>
<br>
If you want to be strict about it, yes. From a pragmatic point of view, I<br>
refrain from having a conscious opinion. It just happens. If I wanted to<br>
estimate it, I'd look to my empirical experience, and conclude that it is very<br>
certain. I think the key insight for me is that I don't have to have an opinion<br>
on the matter, and thus I avoid the eternal doubter problem.<br></blockquote></div></div><div dir="auto"><br></div><div dir="auto">For the same reason, I am very certain that a brain (in the condition of any living brain) will continue to act as a living brain would (rather than say, spontaneously die because it did not having a supernatural soul assigned to it).</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
> To me, "speculate" indicates a degree of uncertainty that I don't think fits<br>
> for the situation I am discussing.<br>
<br>
True. I think a lot of our differences come out of us beginning with different<br>
associations, and then discovering that once I more clearly specify what I<br>
think, or you explain, the difference was actually quite small or non-existent.<br>
Your use of the term immaterial for instance, was one such example.<br></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Yes it is so important to get definitions right. It was my mistake to not explicitly define immaterial.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
>       > I think this may be another core difference between us, which seems to relate<br>
>       > to our different base ideas around the validity or reliability of deductive<br>
>       > reasoning.<br>
><br>
>       Yes I think you are right here. Where I feel uncomfortable is when those<br>
>       examples are bridged to the real world. I am not uncomfortable with the<br>
>       mathematician solving mathematical problems. When math is used as a helper for<br>
>       physics, to describe our world, that is where my uncomfort sets in.<br>
> <br>
> I wonder how comfortable the test pilot was who was the first to take off in<br>
> an entirely untested 777. ;-)<br>
<br>
I imagine he had a few butterflies in his stomach. ;)<br></blockquote></div></div><div dir="auto"><br></div><div dir="auto">😂</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
>       >       So based on my current<br>
>       >       experience, I have never witnessed any resurrections in the strong sense (not<br>
>       >       talking about freezing/thawing or near death experiences here). So assuming an<br>
>       >       all powerful AI who reassembled every atom and electron of a dead body in some<br>
>       >       live state, yes, why not? But the advantage is that this would be something<br>
>       >       happening in the real world, so when it happens I will revise my position.<br>
>       ><br>
>       >       Until it happens, I consider death to be death, since I have not yet seen any<br>
>       >       evidence to the contrary.<br>
>       ><br>
>       > But note that this conclusion contravenes your materialist assumption.<br>
><br>
>       I don't see how that follows.<br>
> <br>
> The materialist assumes the brain is a physical object which operates<br>
> according to physical laws. All materialists further believe in the concept of<br>
> experimental reproducibility: material systems arranged to be in the same<br>
> state will evolve in the same way over time. These two materialist assumptions<br>
> together imply that restoring a dead brain to the state it was when it was<br>
> alive will result in the brain resuming its function as it was when it was<br>
> alive. Of course, we might run the experiment some day and find that for some<br>
> reason it doesn't work, but that would refute materialism.  <br>
<br>
Ah, I see what you mean. Well, the easy answer is that, I'll revise my position<br>
once the experiment is performed.</blockquote></div></div><div dir="auto"><br></div><div dir="auto">But you earlier states your position is materialism.</div><div dir="auto"><br></div><div dir="auto">I think your choice then is to become agnostic about materialism, or alternatively, accept materialism and all it's implications.</div><div dir="auto"><br></div><div dir="auto">If you remain agnostic about the implications of materialism, the I would say you don't really accept materialism, and are agnostic about it.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"> Theoretically, it might work as you describe,<br>
but we must keep in mind, that at present, it is just a thought experiment. We<br>
also might discover some technical or scientific reason it might not be done. So<br>
in order to minimize my ontological commitments, I'll either say, it is<br>
impossible, from a day to day perspective, or I might say that I refrain from<br>
having an opinion until we have more evidence.<br>
<br>
But, to make it more interesting, let's drop the AI and say that we're talking<br>
about the probability of ressurecting someone with a body temperature of 13.7 C<br>
who has been declared dead before the arrival to the hospital, I'd say that the<br>
probability of that is definitely not zero.<br>
<br>
>       > I think I may see the problem here.<br>
>       ><br>
>       > I believe you are using the word "possible" to mean "currently technically feasible."<br>
>       > Whereas I use "possible" to mean "possible in principle" (i.e. nomological possibile).<br>
>       >  <br>
>       > But please correct me if my interpretation is wrong.<br>
><br>
>       Yes, this might be closer to the truth. Another aspect to keep in mind when I<br>
>       speak of impossible, is that it does not mean impossible forever in many cases.<br>
>       Then there are of course cases, to complicate matters, where I consider<br>
>       impossible to be impossible for ever, such as our bearded lord reaching out from<br>
>       the sky. But even that case I would be willing to reconsider if I saw proof of<br>
>       it.<br>
> <br>
> In my view it is better to speak in terms of probabilities. We could agree<br>
> seeing such an occurrence has a low probability, but it is not a logically<br>
> impossible experience to have. It is not impossible to the same extent as<br>
> "meeting a married bachelor, or "seeing a circle with four corners."<br>
<br>
True!<br></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Glad we agree!</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
>       > I think this quote, from Dennett, really drives home the problem of zombies:<br>
>       ><br>
>       >       "Supposing that by an act of stipulative imagination<br>
>       > you can remove consciousness while leaving all<br>
>       > cognitive systems intact […] is like supposing that by<br>
>       > an act of stipulative imagination, you can remove<br>
>       > health while leaving all bodily functions and powers<br>
>       > intact. If you think you can imagine this, it’s only<br>
>       > because you are confusedly imagining some health-<br>
>       > module that might or might not be present in a<br>
>       > body. Health isn’t that sort of thing, and neither is<br>
>       > consciousness."<br>
>       > — Daniel Dennett in “The Unimagined Preposterousness of<br>
>       > Zombies” (1995)<br>
><br>
>       Makes a lot of sense to me.<br>
> <br>
> If you come to see zombies as logically impossible, (as I make the case for in<br>
> the thought experiments I cited above), then this means certain behaviors can<br>
> provide evidence for the presence of a mind. Note, this does not mean behavior<br>
> is mind, as behaviorists claimed, nor does it mean absence of certain<br>
> behaviors indicates a lack of a mind, but it does mean, in certain conditions,<br>
> witnessing behaviors can justify a belief in the presence of a mind.  <br>
<br>
Well, based on a materialist starting point, I see them as impossible. It is a<br>
good example of a thought experiment gone wrong, where we chase after something<br>
which really does not make any sense at all.</blockquote></div></div><div dir="auto"><br></div><div dir="auto">Well the idea didn't originate from thought experiments, it originated from a strict belief in physical law. This is what drove Huxley to his position of epiphenomenalism: if the physical universe is causally closed, he saw no room for consciousness to do anything, as everything is already pre-determined by physical laws playing out.</div><div dir="auto"><br></div><div dir="auto">Zombies are just a tool that makes understanding the implications of epiphenomenalism more clear. They are, in fact, the philosophical tool that allowed the construction of thought experiments that revealed Huxley's theory of epiphenomenalism to be exposed as false. So here is an example of thought experiments rescuing scientists from being led astray by over extrapolating their materialist theories. ;-)</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"> Just like Qualia. A red herring,<br>
that doesn't really exist as something outside of an active process when mind<br>
meets the world. Without the mind, there is no qualia or redness.<br></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I am not sure why you say qualia are a red herring.</div><div dir="auto"><br></div><div dir="auto">But I agree with the last sentence</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
>       >  *  Remember an earlier thought<br>
>       >  *  Describe how one feels<br>
>       >  *  Invent a theory of consciousness<br>
>       > Or do you think there are some behaviors for which a conscious mind is a requirement?<br>
><br>
>       I think we first of all, have a bad grasp of what consciousness is. Keeping that<br>
>       in mind, I think all of the above could be replicated by a machine, in terms of<br>
>       how it behaves and acts in the world. Some of those would be dependent on<br>
>       definition as well.<br>
> <br>
> Certainly such behaviors could be replicated by a machine. But the more<br>
> pertinent question is: Could all these behaviours be replicated by a machine<br>
> that was not conscious? Or does the performance of these behaviors imply that<br>
> the machine doing them is conscious?<br>
<br>
I think this is just a matter of definition. I'm perfectly content equating<br>
conscious behaviour, as per the list above, with something being conscious. I<br>
also think the zombie argument is nonsense from a material point of view. I<br>
really do not see how it could work.<br></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I don't think it is a matter of definition. The machine exhibiting those behaviors either has a mind or it doesn't (regardless of our definition).</div><div dir="auto"><br></div><div dir="auto">So I am asking which truth do you think corresponds with reality (the reality or nonreality of that machine's mind)?</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
>       > If there are any, then detecting consciousness can be made into an empirical science.<br>
><br>
>       I am content with using behaviour in the world as a guide to consciousness. What<br>
>       I am waiting for in the current AI gold rush is volition, goals and<br>
>       self-preservation.<br>
> <br>
> AI language models have goals: to produce meaningful responses that get good<br>
> feedback from the users. And there was recently the case where researchers<br>
> observed the AI acting in a manner showing a desire for self-preservation.<br>
> ( <a href="https://futurism.com/the-byte/openai-o1-self-preservation" rel="noreferrer noreferrer" target="_blank">https://futurism.com/the-byte/openai-o1-self-preservation</a> )<br>
> <br>
> A (possibly relevant)<br>
> cartoon: <a href="https://www.digitaltonto.com/wp-content/uploads/2014/02/Kurzweil-AI-cartoon.gif" rel="noreferrer noreferrer" target="_blank">https://www.digitaltonto.com/wp-content/uploads/2014/02/Kurzweil-AI-cartoon.gif</a><br>
<br>
True. I have not been personally convinced yet, that LLMs are conscious. I<br>
encourage more research, and I would also like to see a resurrection of some<br>
kind of harder Turing-prize.<br></blockquote></div></div><div dir="auto"><br></div><div dir="auto">What would a robot have to do to convince you it was conscious?</div><div dir="auto"><br></div><div dir="auto">And what would an animal have to do?</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
Anyone rich reading this and who wants to sponsor please reach out, it would <br>
be a lot of fun to get involved! =)<br>
<br>
I wonder what size of the prize is necessary to motivate people to win?<br></blockquote></div></div><div dir="auto"><br></div><div dir="auto">$1000 is probably enough. The right software could automate everything too, no need for in person events, and many people would volunteer as judges.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
>       > What would be needed for you to conclude it was resurrected? (Or does that<br>
>       > determination rest on what you consider to be unresolved questions of<br>
>       > identity?)  <br>
><br>
>       Probably that the biological body started to move again, from the state where it<br>
>       stopped. I'd say that what was done was that the patterns of the worm where<br>
>       cloned and replicated in a computer, for now.<br>
> <br>
> Well they were copied into a robot body. So it was given a new body. The word<br>
> resurrect means only to bring back to life (and sets no requirement on it<br>
> being the same body). If we restrict resurrection to only bringing the<br>
> original body back to life, I would class that as "revival" or<br>
> "resuscitation".  <br>
<br>
This I think might be better continued in our thread about the "identity formula" (C)! ;)<br></blockquote></div></div><div dir="auto"><br></div><div dir="auto">👍</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
>       As for identity, this is actually an interesting question! Is there an accepted<br>
>       "line" where we speak of animals with identities, and animals without<br>
>       identities? Higher animals have preferences, listen to their names, to some<br>
>       extent, can pick up on feelings etc. Where does that stop? Does a worm have an<br>
>       identity?<br>
> <br>
> I don't think an entity needs to recognize or be aware of its identity for it<br>
> to have one. For example, philosophy struggles even to define identity for<br>
> inanimate objects (famously the Ship of Theseus:<br>
> <a href="https://en.wikipedia.org/wiki/Ship_of_Theseus" rel="noreferrer noreferrer" target="_blank">https://en.wikipedia.org/wiki/Ship_of_Theseus</a> ). <br>
> <br>
> As to the matter of whether the worm has a "personal identity", to me, that<br>
> question rests on whether or not there is anything it is like to be that worm:<br>
> is that worm conscious? If so, then we can ask valid questions about its<br>
> identity in the same way as is commonly done in the field of personal<br>
> identity.<br>
> <br>
> E.g., What is required for the worm to survive? Which experiences belong to<br>
> the worm? If the worm gets cut in two and continues living, does its identity<br>
> split, or does each copy preserve and contain the original worm's identity?<br>
> etc.<br>
<br>
Hmm, maybe we should move this into the other thread as well?<br></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Sounds perfect for that thread: what does bodily continuity mean for worms with split bodies or humans with split brains?</div><div dir="auto"><br></div><div dir="auto">Jason</div></div>