<br><br><div><span class="gmail_quote">On 4/27/07, <b class="gmail_sendername">Jef Allbright</b> <<a href="mailto:jef@jefallbright.net">jef@jefallbright.net</a>> wrote:<br>
<br>
</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">> Individuals are always "fighting" with themselves. Every single decision
<br>> that is made involves a weighing up of multiple alternatives, multiple<br>> outcomes, multiple utilities for each outcome. If multiple minds were<br>> integrated into one person the behaviour of that person would reflect some
<br>> sort of average of the individual minds.<br><br>Stathis, would you agree that "composite" would be a better word than<br>"average" here, since "average" entails a reduction of information? I
<br>think this question is key because it appears to highlight that you<br>and I are looking at the same scenario but working in opposite<br>directions.</blockquote><div><br>
Yes, "composite" is a better word. <br>
</div><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">I see "group minds" emerging due to the adaptive benefits of<br>increasing degrees of freedom enabled by a more complexly effective
<br>organizational structure operating within an increasingly complex<br>environment.  The subjective experience of the composite would be a<br>high level expression of salient features of its internal state over<br>time, fundamentally unavailable to its members. The subjective
<br>experience of each member, while subjectively "complete", would<br>reflect a necessarily lower-level description of interactions with the<br>greater "reality."</blockquote><div><br>
I don't see how you could distinguish the experiences of each member
from the experiences of the composite, or each other, if they were
truly joined. It would be like separating the part of you that likes
chocolate from the part that doesn't want to put on weight. I don't
envision the composite as someone with multiple personality disorder
(which probably doesn't exist, BTW) but as a completely integrated
single person.<br>
</div><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">It seems that you are working in the opposite direction, assuming the<br>primality of subjective experience, and imagining how to combine
<br>multiple subjective experiences into one, with this combined average<br>subjective agent then interacting with its world.</blockquote><div><br>
Yes, although you don't need to call it an average, as you said above.<br>
</div><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">> Two careful conservatives + one<br>> reckless radical = one mostly careful, sometimes radical joined person. The
<br>> difference would be that this person could not harm, punish or reward some<br>> selected part of himself because all the parts experience what the whole<br>> experiences.<br><br>It's not completely clear here, but it appears that you're claiming
<br>that each of the parts would experience what the whole experiences.<br>>From a systems theoretical point of view, that claim is clearly<br>unsupportable.  It seems to be another example of your assumption of<br>subjective experience as primary.
</blockquote><div><br>
Would you say that the two hemispheres of the brain have separate experiences, despite the thick cable connecting them?<br>
</div><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">> > I'm thinking we might all choose to become something<br>> > like one of those clusters of human minds called "the
<br>> > joined", described in Clarke/Baxter: "The light of<br>> > other days", joined also with AI of course (and why<br>> > not with the minds of all the animals as well!).<br>> ><br>
> > Is there a danger in all individuals becoming one? Can<br>> > there be a survival value, for the human species, in<br>> > such diversity of opinions that exists today, where<br>> > people can't accept each other's ways of thinking,
<br>> > where people even kill each other because they have<br>> > different beliefs etc?<br>><br>> The collective decisions of the joined mind would, over time, resemble the<br>> collective decisions of the individuals making up the collective.
<br><br>It seems clear to me that the behavior of the collective would display<br>characteristics *not* present in any of its parts.  This is<br>fundamental complexity theory.</blockquote><div><br>
Yes, I suppose that's true and the fact that the parts are in
communication would alter the behaviour of the collective. However,
even the disconnected parts would display emergent behaviour in their
interactions.<br>
</div><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">> The<br>> equivalent of killing each other might be a decision to edit out some
<br>> undesirable aspect of the collective personality, which has the advantage<br>> that no-one actually gets hurt.<br><br>This sounds nice, but it's not clear to me what model it describes.</blockquote><div><br>

In a society with multiple individuals, the Cristians might decide to
persecute the Muslims. But if a single individual is struggling with
the idea of whether to follow Christianity or Islam, he is hardly in a
position to persecute one or other aspect of himself. The internal
conflict may lead to distress, but that isn't the same thing.<br>
<br>
Stathis Papaioannou<br>
</div><br></div><br>