<div dir="ltr"><br><div>My prediction is Jason is making things WAY too complicated, and talking about everything BUT what is important.  And even all the stuff he is talking about, will be possible, just a lot more complex to achieve that.</div><div>An elemental quality of everything Jason is describing is a standalone pixel of a redness quality.</div><div>This single pixel could change to a grenness quality.  Sure, there is a lot of different memories, and feelings, that one pixel would invoke differently, in different people.  But all that other stuff doesn't matter, only the elemental qualities does.</div><div>This pixel of elemental redness, and the resulting change from redness to greenness, must identity match up with some objective description of the same.</div><div>It is simply discovering what this identity is, and figuring out how elemental redness can be computationally bound with all the other stuff that would be different, in different brains.</div><div>My prediction is that we will discover which of all our descriptions of stuff in the brain is a description of redness, We finally know which camp is THE ONE, we finally know the true color properties of things, hard problem solved, we can eff the ineffable, since our terms and properties of our subjective experiences would then be objectively grounded.</div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 14, 2023 at 8:47 AM efc--- via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br>
On Fri, 14 Apr 2023, Jason Resch via extropy-chat wrote:<br>
<br>
> Even if Alice outputs her whole brain state, A(I), at best her friends only interpret it and reach states:<br>
> <br>
> B(A(I)), C(A(I)), D(A((I)), E(A(I))<br>
> <br>
> Do you see a way around this? Can Alice's output something that anyone upon seeing it will have the same experience as Alice has?<br>
><br>
<br>
Not without a serious dose of science fiction and a weakening or<br>
redefinition of the term "same experience".<br>
<br>
If by same experience we want same time, location, hardware and <br>
software state, B would have to be "turned into" A, but B could not be <br>
both A and B, so if B is turned back from A to B, I cannot see <br>
how it could be done. It almost feels more like a logic problem<br>
than a philosophy problem. ;)<br>
<br>
Best regards, <br>
Daniel<br>
<br>
<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>