<br><br><div class="gmail_quote">On Mon, Mar 10, 2008 at 11:19 PM, Bryan Bishop <<a href="mailto:kanzure@gmail.com">kanzure@gmail.com</a>> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<br>Is it? I'll have to investigate this term, 'modal realism'. Is this the<br>
same as monads?</blockquote><div><br>### Nnno, I think it's something different. I never read any Leibniz, so couldn't tell with certainty.<br><br>--------------------------------<br> </div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
> Some small structures within events reflect, or correlate with, their<br><div class="Ih2E3d">
> surroundings.This special form of reflection or map of surroundings,<br>
> is probably a necessary feature of awareness. In addition to<br>
<br>
</div>I do not see this as necessary for the ideas that you go on to discuss.<br>
How can you have a map of your surroundings? The map is not the<br>
territory.</blockquote><div class="Ih2E3d"><br>### A map is something that allows prediction about the territory. It may be a bunch of neurons in your parietal cortex. The omniscient observer could guess the shape of the room you are in by examining them. They correlate with the room, so they are a map. The best map is of course the territory itself. I mention this to better describe my idea of self, where consciousness and awareness are important.<br>
<br>----------------------------------------------<br>
<br>
</div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Is consciousness necessarily so fundamental? In answer to my own<br>
question, I suppose it would have to be, otherwise you are not really<br>
philosophizing, are you?</blockquote><div><br>### Well, yes, consciousness is very important for the properties of observable worlds, as per the anthropic principle. Only some worlds have the properties that allow consciousness to exist in them, so even if other worlds are real, we won't see them.<br>
<br>-------------------------------------------------<br></div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Historical context is unchangeable, yes, but perhaps we can cut<br>

ourselves loose from our histories and become something ... other?</blockquote><div><br>### But if its Other, it's not You! :)<br><br>If we are mathematical structures, then our own definitions constrain us. As you wrote above ""your effort to<br>

remain what you are is what limits you.", and I agree with it. But of course, if your definition of yourself is quite liberal, then by that definition your tree of life may be huge, limited only by your own imagination.<br>
<br>------------------------------------------<br></div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div class="Ih2E3d"><br>
</div>What? A million brains doing the same thing is really the same thing? I<br>
do not see how that is true. Suppose we in fact tried that, and we had<br>
a million brains that were in fact quantumly similiar in most of the<br>
aspects that matter. Would not their relations and contexts be<br>
different, wouldn't we have a floating brain field consuming tons of<br>
resources and so on?</blockquote><div><br>### Lee gave the explanation so I won't repeat it here, since I agree with him.<br><br>-------------------------------------<br>
</div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div class="Ih2E3d"><br>
> same macroscopic-level thoughts, words and actions but differing at<br>
> the quantum scale may represent true copies but personally I don't<br>
> care about them - they do not differ in the higher-order correlations<br>
> I mentioned above as necessary for consciousness. Why bother running<br>
> them if they don't materially change the shape of all my thoughts? I<br>
> might object to such copies being tortured, since they would increase<br>
> the measure of pain in the me-tree. Timelessly said, the preference<br>
<br>
</div>Are you sure you would object? What is this obsession with "me"ism?</blockquote><div><br>### I have a very strong aversion to suffering, so I really don't want billions of beings very similar to me kept on tenterhooks. But I don't have a strong proclivity to just being there, and I wouldn't spend any money on making billions of copies running the same thoughts, even orgasmically pleasant ones. This is an asymmetry of desires - strong aversion to suffering, a much weaker pull to pleasure. <br>
<br><br>Rafal</div></div><br>