<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Feb 22, 2023 at 8:00 PM Giovanni Santostasi via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Jason,<div>The Newcomb paradox is mildly interesting. But the perceived depthness of it is all in the word game that AGAIN philosophers are so good at. I'm so glad I'm a physicist and not a philosopher (we are better philosophers than philosophers but we stopped calling ourselves that given the bad name philosophers gave to philosophy). The false depth of this so-called paradox comes from a sophistry that is the special case of the predictor being infallible. In that case all kinds of paradoxes come up and "deep" conversations about free will, time machines and so on ensue. <br></div></div></blockquote><div><br></div><div>I agree there is no real paradox here, but what is interesting is that it shows a conflict between two commonly used decision theories: one based on empiricism and the other based on expected-value. Note that perfect prediction is not required for this conflict to arise, this happens even for imperfect predictors, say a psychologist who is 75% accurate:</div><div>Empiricist thinker: Those who take only one box walk away 75% of the time with a million dollars. Those who take both 75% of the time walk away with $1,000 and 25% of the time walk away with $1,001,000. So I am better off trying my luck with one box, as so many others before me did that and made out well.</div><div>Expected-value thinker: The guess of my behavior has already been made by the psychologist. Box A is already empty or not. I will increase my expected value by $1,000 if I take box B. I am better off taking both boxes. </div><div>On an analysis it seems the empiricist tends to do better. So is expected-value thinking wrong? If so, where is its error?</div><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>In all the other cases one can actually write a code to determine, given the predictor success rate, what is the best choice from a statistical point of view.<br></div></div></blockquote><div><br></div><div>True.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>Nothing deep there. <br></div></div></blockquote><div><br></div><div>The depth arises in the conversations and debates between one who genuinely believes in one-boxing and one who genuinely believes in two-boxing. I had several month's long debates between co-workers in the past. The conversations lead in very interesting directions.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>So the only issue is if we can have an infallible predictor and the answer is not. It is not even necessary to invoke QM for that because just the idea of propagation of errors from finite information is enough. Even in predicting the stability of the solar system many million of years from now we will need to know the current position of planets to basically an infinite level of precision given all the nonlinear interactions in the system. If one has the discipline to do without these absolute abstractions (basically creationist ideas based on concepts like a perfect god) of perfect knowledge, perfect understanding then one realizes that these philosophical riddles are not deep but bs (same thing with qualia, philosophical zombies and so on). No wonder this paradox has attracted William Craig Lane's attention. <br><br></div></div></blockquote><div><br></div><div>Perhaps it's not physically possible for biological and physical minds, but we could imagine it as possible to achieve 100% accuracy in the case of an uploaded brain or AI, where all environmental inputs can be controlled.</div><div><br></div><div>Jason</div><div> </div></div></div>