<div dir="ltr">Thanks Bill. A great idea as always to bring in AI to help clarify things. While what the AI says here is true, I think it misses the essential element of disagreement between my position and Ben's. Namely, whether a functionalist account of consciousness is all that is important to the question of surviving via uploading. I took this question to Chat GPT Thinking, and had the following exchange:<div><br></div><div><b>Jason:</b> When it comes to answering the question of whether a mind-upload of my brain will still be me, in the personal, subjective sense -- that the experiences of this upload will be mine, that I will personally survive the transition to this new substrate, what assumptions must I make? Are theories in the philosophy of mind (e.g. functionalism, or computationalism) enough, or must one make further assumptions regarding theories in the philosophy of personal identity?</div><div><br></div><div><b>ChatGPT:</b> No. Functionalism or computationalism are not enough by themselves.</div><p>They mainly address <strong>what a mind is</strong> and <strong>whether mentality can be realized in another substrate</strong>. Your question adds a second issue: <strong>what makes a future subject of experience numerically identical to you</strong>. Those are different philosophical jobs. Functionalism says mental states are defined by their causal/functional role rather than by their specific material makeup, and computationalist versions say the relevant organization can in principle be implemented in different physical media. That supports the idea that an upload could have a mind at all. But it does not, by itself, settle whether that mind is <strong>you</strong>. (<a href="https://plato.stanford.edu/entries/functionalism/" title="Functionalism (Stanford Encyclopedia of Philosophy)">Stanford Encyclopedia of Philosophy</a>)</p><p>The cleanest way to see the gap is this: a theory of mind answers, “Would the upload think, feel, remember, deliberate, and perhaps be conscious?” A theory of personal identity answers, “Would that future thinker literally be me rather than merely a qualitatively similar successor?” The personal-identity literature treats this as a separate question about the conditions under which a person survives over time. (<a href="https://iep.utm.edu/person-i/" title="Personal Identity | Internet Encyclopedia of Philosophy">Internet Encyclopedia of Philosophy</a>)</p><p>So, to answer <strong>yes</strong> to “the upload’s experiences will be mine; I will personally survive,” you usually need at least these further assumptions:</p><ol><li><p><strong>Substrate independence of mind.</strong><br>You must assume that the relevant mental organization can be realized outside the biological brain. Functionalism and computationalism are designed to support exactly that kind of claim. (<a href="https://plato.stanford.edu/entries/functionalism/" title="Functionalism (Stanford Encyclopedia of Philosophy)">Stanford Encyclopedia of Philosophy</a>)</p></li><li><p><strong>Substrate independence of consciousness, not just cognition.</strong><br>It is not enough that the upload would behave like you or process information like you. For the upload’s experiences to be yours in the first-person sense, you must also assume that phenomenal consciousness is preserved by preserving the right functional/computational organization. That is a stronger assumption, because functionalism is famously contested on qualia and consciousness; even standard reference works treat consciousness as lacking any agreed-upon theory, and functionalism faces the zombie/explanatory-gap/qualia objections. (<a href="https://plato.stanford.edu/entries/functionalism/" title="Functionalism (Stanford Encyclopedia of Philosophy)">Stanford Encyclopedia of Philosophy</a>)</p></li><li><p><strong>A psychological or organizational criterion of personal identity.</strong><br>You must assume that what makes a future person you is some form of psychological continuity, informational continuity, or continuity of first-person perspective, rather than biological continuity or sameness of organism. The standard alternatives in the literature include soul views, psychological-continuity views, and bodily/animalist views. If you adopt animalism or a bodily criterion, an upload is generally not you, because the biological organism does not go with the upload. (<a href="https://iep.utm.edu/person-i/" title="Personal Identity | Internet Encyclopedia of Philosophy">Internet Encyclopedia of Philosophy</a>)</p></li><li><p><strong>No further hidden essence beyond the preserved structure.</strong><br>You must reject the idea that there is some extra fact—an immaterial ego, soul-substance, or brute “thisness” of the subject—that cannot be copied or re-instantiated by preserving functional/computational structure. Otherwise the upload could be a perfect replica that still is not you. (<a href="https://iep.utm.edu/person-i/" title="Personal Identity | Internet Encyclopedia of Philosophy">Internet Encyclopedia of Philosophy</a>)</p></li></ol><p>There is one more assumption that becomes crucial in upload cases:</p><ol start="5"><li><p><strong>A rule for duplication or branching.</strong><br>If the original remains alive while a copy is created, then functional/psychological continuity points to both future beings. But numerical identity is normally one-one, not one-many. The personal-identity literature treats this as the classic fission problem: if two future beings are equally continuous with you, functional similarity alone does not tell you which one is you. Some philosophers therefore add a <strong>non-branching condition</strong>; others adopt more revisionary views; Parfit-style approaches say strict identity may fail even though what matters for survival-like concern is preserved. (<a href="https://plato.stanford.edu/archives/fall2017/entries/identity-personal/" title="Personal Identity (Stanford Encyclopedia of Philosophy/Fall 2017 Edition)">Stanford Encyclopedia of Philosophy</a>)</p></li></ol><p>That branching point is why “uploading” splits into two importantly different cases:</p><p><strong>Destructive upload:</strong><br>If your brain is destroyed and only one upload results, then a psychological-continuity theory has a cleaner route to saying you survive, because there is a unique successor. But even here, you still need the extra assumptions above: consciousness must transfer by preserved organization, and identity must consist in that continuity rather than in biological life. (<a href="https://plato.stanford.edu/archives/fall2017/entries/identity-personal/" title="Personal Identity (Stanford Encyclopedia of Philosophy/Fall 2017 Edition)">Stanford Encyclopedia of Philosophy</a>)</p><p><strong>Non-destructive copying:</strong><br>If the biological original remains and an upload is created, then functionalism/computationalism alone are definitely not enough. They may imply that the upload is minded and perhaps conscious, but they do not decide why the original rather than the copy should remain “the” you—or why both would not count equally. This is exactly where personal-identity theory has to do additional work. (<a href="https://plato.stanford.edu/archives/fall2017/entries/identity-personal/" title="Personal Identity (Stanford Encyclopedia of Philosophy/Fall 2017 Edition)">Stanford Encyclopedia of Philosophy</a>)</p><p>So the most precise answer is:</p><ul><li><p><strong>Functionalism/computationalism may be enough to argue that an upload could have a mind, and perhaps even consciousness.</strong></p></li><li><p><strong>They are not enough to show that the upload is personally you in the strict first-person survival sense.</strong></p></li><li><p>To get that stronger conclusion, you also need a theory of personal identity—typically a neo-Lockean or reductionist view on which psychological/functional/computational continuity is sufficient for survival, plus some answer to duplication cases. (<a href="https://plato.stanford.edu/entries/computational-mind/" title="The Computational Theory of Mind (Stanford Encyclopedia of Philosophy)">Stanford Encyclopedia of Philosophy</a>)</p></li></ul><p>My own compression of the landscape would be:</p><p>If you want to say <strong>“yes, I survive upload”</strong>, you are usually committing yourself to something like this:</p><blockquote><p>I am not essentially a biological organism or immaterial soul; I am a conscious subject whose persistence is constituted by the right sort of ongoing psychological/computational organization, and in non-branching cases that organization is enough for survival.</p></blockquote><p>If you are not willing to grant <strong>all</strong> of that, then functionalism alone does not get you all the way to first-person survival. (<a href="https://plato.stanford.edu/entries/functionalism/" title="Functionalism (Stanford Encyclopedia of Philosophy)">Stanford Encyclopedia of Philosophy</a>)</p><p>If you want, I can next give you a map of the main positions—animalism, soul theory, Lockean continuity, Parfit reductionism, constitution view, and open individualism—and show exactly what each one says about destructive upload versus copied upload.</p><div><br></div><div><br></div><div><br></div><div><br></div><div>I continued the conversation by asking a follow up question asking to say what conclusions different theories of personal identity lead to, for those who are interested: <a href="https://chatgpt.com/share/69bf0b05-33bc-8006-90ee-4c34f64d3131">https://chatgpt.com/share/69bf0b05-33bc-8006-90ee-4c34f64d3131</a></div><div><br></div><div>Jason</div></div><br><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr">On Sat, Mar 21, 2026 at 1:45 PM BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">Following from the discussion Ben and Jason had about mind uploads, I asked Grok about "good enough" or "perfect". Grok discussed the 80/20 rule, where "good enough" and polishing it later was often the best option. But Grok decided that mind uploads needed to be near perfect on the first attempt, </div><div class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">See discussion below.</div><div class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">BillK</div><div class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)"><br></div><div class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">Question -</div><div class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">For future human mind uploads, how near-perfect will be required?</div><div class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)"><br></div><div class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">Grok 4.20 Expert -</div><div class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)"></div><div class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)"><p dir="auto" style="white-space:pre-wrap"><b>Near-perfect fidelity will almost certainly be required</b> for human mind uploads (whole brain emulation or WBE), but “near-perfect” is defined at the <i>functional scale where mind emerges</i>, not at the impossible atomic/quantum level. Absolute 100 % perfect replication of every single molecule in every instant is unnecessary and probably irrelevant—thanks to “scale separation” (the brain’s hierarchical nature lets you ignore finer details once you’ve nailed the right layer).<span></span></p>
<p dir="auto" style="white-space:pre-wrap">Here’s the breakdown, based on the most authoritative roadmap (Sandberg & Bostrom 2008, still the standard reference) plus modern neuroscience and recent successes:</p>
<h3 dir="auto">1. Technical fidelity tiers (what experts actually model)</h3>
<p dir="auto" style="white-space:pre-wrap">The classic emulation success ladder:</p>








































<div><div><div dir="auto"><table dir="auto"><thead><tr><th>Level</th><th>What’s Captured</th><th>Required for…</th><th>Approx. Compute</th><th>Consensus View</th></tr></thead><tbody><tr><td style="white-space:pre-wrap">3–4</td><td style="white-space:pre-wrap">Spiking neurons + full connectome + synapse types/weights</td><td style="white-space:pre-wrap">Species-typical behavior, basic learning</td><td style="white-space:pre-wrap">10¹⁸ FLOPS</td><td style="white-space:pre-wrap">Minimum viable “human-like”</td></tr><tr><td style="white-space:pre-wrap">5</td><td style="white-space:pre-wrap">Electrophysiology (ion channels, voltages, currents) + ~5×5×50 nm spatial scan</td><td style="white-space:pre-wrap">Individual personality, memories, skills</td><td style="white-space:pre-wrap">10²² FLOPS</td><td style="white-space:pre-wrap">Probably sufficient for most practical uploads</td></tr><tr><td style="white-space:pre-wrap">6–7</td><td style="white-space:pre-wrap">Metabolome + proteome (neurotransmitters, proteins, gene expression)</td><td style="white-space:pre-wrap">Full plasticity, long-term adaptation, qualia/consciousness</td><td style="white-space:pre-wrap">10²⁵–10²⁶ FLOPS</td><td style="white-space:pre-wrap">Safe “near-perfect” zone for convincing uploads</td></tr><tr><td style="white-space:pre-wrap">8–11</td><td style="white-space:pre-wrap">Protein complexes → single molecules → quantum</td><td style="white-space:pre-wrap">Only if no scale separation exists</td><td style="white-space:pre-wrap">Insane (10³⁰+)</td><td style="white-space:pre-wrap">Almost certainly overkill; quantum effects in brain are negligible on relevant timescales</td></tr></tbody></table></div></div><div><div style="height:1px;width:671px"></div></div><div></div></div>
<p dir="auto" style="white-space:pre-wrap"><b>Spatial resolution needed</b>: ~5 nm in key directions to see synapses and thin axons (current electron microscopy on small brains already hits this; fruit-fly whole-brain connectome + synapse prediction already produces multiple real behaviors at 95 % accuracy).
<b>Temporal</b>: <1 ms to capture spikes and synaptic timing.
<b>Chemical tags</b>: Which neurotransmitter, receptor type, phosphorylation state—critical for “who you are.”</p>
<p dir="auto" style="white-space:pre-wrap">Kurzweil says neural/synaptic level is enough for uploads by ~2045. Sandberg/Bostrom workshop consensus: levels 4–6 get you to “individual brain emulation” (recognizably <i>you</i>, retains most memories/skills) and likely “mind emulation” (subjective experience). Higher levels only if the brain has no useful scale separation—which would make uploading impossible anyway.</p>
<p dir="auto" style="white-space:pre-wrap">Recent proof: The 2024–2026 fruit-fly whole-brain emulation (125k neurons, 50M synapses) already drives real embodied behaviors when plugged into a physics-simulated body. That’s level ~4–5 fidelity—and it <i>works</i>. Human scale just needs the same approach, bigger.</p>
<h3 dir="auto">2. Philosophical “is it really YOU?” requirement</h3>
<p dir="auto" style="white-space:pre-wrap">This is where “near-perfect” gets stricter:</p>
<ul dir="auto"><li><b>Functionalist / pattern view</b> (most transhumanists, Koene, Kurzweil, Parfit-inspired branching identity): If the <i>information-processing pattern</i> is preserved at the right scale, the upload <i>is</i> a continuer of you. A perfect synaptic + dynamics copy is sufficient. Small approximations below noise level don’t matter—you don’t notice which exact molecules are firing right now anyway.</li><li><b>Gradual replacement</b> (neuron-by-neuron swap): Highest continuity—widely accepted as preserving identity even by skeptics. Requires near-perfect tech but no destructive scan.</li><li><b>Destructive scan-and-copy</b>: The upload wakes up thinking it’s you 100 %, but the original dies. Many philosophers say it’s a perfect copy, not “you.” Psychological branching or psychological-continuity theories still say both branches can legitimately be “you.”</li><li><b>Substrate chauvinist / quantum views</b> (Penrose, some dualists): You’d need literally perfect biology-level fidelity (or impossible quantum state transfer). Most experts dismiss this—decoherence kills quantum effects in <10⁻¹³ s.</li></ul>
<p dir="auto" style="white-space:pre-wrap"><b>Bottom line on identity</b>: Near-perfect at level 5–6 + gradual method or very high-fidelity non-destructive scan is what most serious thinkers would accept as “safe enough” for personal continuation. Anything coarser risks noticeable differences (amnesia, personality drift, or the dreaded “zombie” worry).</p>
<h3 dir="auto">3. Why “good enough” is <i>not</i> better than near-perfect here (unlike your last question)</h3>
<ul dir="auto"><li><b>One-shot high stakes</b>: Unlike a blog post or MVP, you can’t easily iterate on your own mind after upload. Errors compound (chaos + long-term plasticity). Early uploads will need over-engineering.</li><li><b>Environment must also be near-perfect</b>: Sensory input and virtual body simulation must be accurate enough that the upload can’t tell the difference—otherwise psychosis or identity fracture. Minor distortions = serious mental consequences.</li><li><b>Once mature</b>: Then “good enough + fast iteration” wins. Uploads can be copied, edited, sped up, and A/B tested ethically in simulation. The first successful ones just have to be close enough that the emulated person says “yep, still me.”</li></ul>
<h3 dir="auto">Practical threshold most experts converge on</h3>
<ul dir="auto"><li>Scan at ~5–50 nm spatial + chemical tagging + 1 ms dynamics.</li><li>Simulate at level 5–6 fidelity (synapses + electrophysiology + key chemistry).</li><li>Use gradual replacement or non-destructive methods where possible.</li><li>Validate until the emulation passes personalized Turing tests <i>and</i> internal self-report matches (under PAM—Principle of Assuming the Most).</li></ul>
<p dir="auto" style="white-space:pre-wrap">That’s “near-perfect” in engineering terms: accurate to within natural brain noise, preserving every functionally relevant bit. Absolute molecular perfection? Unnecessary and wasteful.</p>
<p dir="auto" style="white-space:pre-wrap">In short: For mind uploads, <b>near-perfect at the synaptic-to-molecular functional layer will be required</b>—because the mind is delicate and identity is precious. But once you hit that threshold, the same principle you asked about last time kicks in: iterated “good enough” versions will rapidly outpace any biological human. The first upload has to be <i>really</i> close; everything after that gets to be gloriously imperfect and improvable.</p><p dir="auto" style="white-space:pre-wrap">Motion (in silicon) will beat meditation (in carbon). But you still need to nail the launch.</p>-----------------------------------</div></div>
</div>
</div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>