<div dir="auto">If you know the Lorentz force on the ion in the big toe, the trajectory can be computed. So what? <div dir="auto"><br></div><div dir="auto">If the ion is in the brain, with massive molecular dynamics simulation, you can computer the trajectory and be right. so what?</div><div dir="auto"><br></div><div dir="auto">I am talking about the behavioural dynamics of a complete field system, which as a massive summation of the field system impressed on space by billions of charges. But even if you did that..... So what?</div><div dir="auto"><br></div><div dir="auto">. I am talking about the subjective view of 'being' that total field system, which is what created in a brain. To explore this you have to physically replicate the field system. The standard model of particle physics (Maxwell's) has ZERO content on the1PP. How this information content is erected is a mystery. To explore it you build the fields. You don't simulate their outward appearance.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Apr 27, 2022, 12:36 PM Stathis Papaioannou <<a href="mailto:stathisp@gmail.com">stathisp@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, 27 Apr 2022 at 12:15, Colin Hales <<a href="mailto:col.hales@gmail.com" target="_blank" rel="noreferrer">col.hales@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Apr 27, 2022, 11:27 AM Stathis Papaioannou <<a href="mailto:stathisp@gmail.com" target="_blank" rel="noreferrer">stathisp@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><br></div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, 27 Apr 2022 at 11:08, Colin Hales <<a href="mailto:col.hales@gmail.com" rel="noreferrer noreferrer" target="_blank">col.hales@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"></div><div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Apr 27, 2022, 10:55 AM StathinoNos Papaioannou <<a href="mailto:stathisp@gmail.com" rel="noreferrer noreferrer noreferrer" target="_blank">stathisp@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><br></div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, 27 Apr 2022 at 09:18, Colin Hales <<a href="mailto:col.hales@gmail.com" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">col.hales@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"></div></div><div dir="ltr"><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Apr 27, 2022 at 7:55 AM Stathis Papaioannou <<a href="mailto:stathisp@gmail.com" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">stathisp@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><br></div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, 27 Apr 2022 at 06:27, Colin Hales via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" dir="auto"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"></div></div><div dir="ltr"><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Apr 26, 2022 at 10:14 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Apr 26, 2022, 1:53 AM Colin Hales <<a href="mailto:col.hales@gmail.com" rel="noreferrer noreferrer noreferrer noreferrer" target="_blank">col.hales@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Apr 26, 2022 at 2:13 PM Jason Resch <<a href="mailto:jasonresch@gmail.com" rel="noreferrer noreferrer noreferrer noreferrer noreferrer" target="_blank">jasonresch@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Apr 25, 2022 at 11:09 PM Colin Hales <<a href="mailto:col.hales@gmail.com" rel="noreferrer noreferrer noreferrer noreferrer noreferrer" target="_blank">col.hales@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Apr 26, 2022 at 2:01 PM Jason Resch <<a href="mailto:jasonresch@gmail.com" rel="noreferrer noreferrer noreferrer noreferrer noreferrer" target="_blank">jasonresch@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Apr 25, 2022 at 10:54 PM Colin Hales via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Apr 26, 2022 at 1:02 PM Rafal Smigrodzki via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer noreferrer noreferrer noreferrer noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div></div></blockquote><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div>### I would be very surprised if the functional capabilities of brains turned out to be impossible to replicate in digital, Turing-equivalent computers. </div><div><br></div><div>Rafal</div></div></div></blockquote><div><br></div><div>Wouldn't it be great to actually do some empirical science to find out? Like start acting as if it was true (impossible) and start building artificial inorganic brain  tissue that is NOT a general-purpose computer (that artificial tissue would also have functionally relevant EEG and MEG), and then comparing its behaviour with the general-purpose computer's model of of the same tissue?</div><div><br></div></div></div></blockquote><div><br></div><div>It looks like this work is in the process of being done:</div><div><a href="https://www.youtube.com/watch?v=ldXEuUVkDuw" rel="noreferrer noreferrer noreferrer noreferrer noreferrer" target="_blank">https://www.youtube.com/watch?v=ldXEuUVkDuw</a></div><div><br></div><div>Jason </div></div></div></blockquote><div><br></div><div>Not even close. Can you see what just happened? There's a general purpose computer and software involved.  The game ends right there! Did you not read what I wrote.<br><br></div><div>To build an artificial version of natural tissue is not to simulate anything. You build the EM field system literally. The use of computers is a design tool, not the end product. The chips that do this would be 3D and have an EEG and MEG like brain tissue. No computers. No software.</div><div><br></div><div>The game has changed!</div><div><br></div></div></div></blockquote><div><br></div><div>What if the computer simulation includes the EM fields?</div><div><br></div><div>Would that be sufficient to make a  conscious program?</div><div><br></div><div>If not, do you predict the computer simulation including the EM fields would diverge in behavior from the actual brain?</div><div><br></div><div>Jason </div></div></div></blockquote><div><br></div><div><b>This is exactly the right question!</b></div><div><br></div><div>To find out you have to do it. You do not know. I think I know, but I can't claim to have proof because nobody has done the experiment yet. My experimental work is at the beginning of testing a hypothesis that the real EM field dynamics and the simulation's dynamics will not track, and that the difference will be the non-computable aspect of brains. </div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I commend you and your work for challenging base assumptions. Such work is always needed in science for progress to be made.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>The difference, I predict, will be in how the devices relate to the external world, which is something that cannot be in any model because it is precisely when the external world is unknown (that nobody can program) that you are interested in its response (that forms the test context of interest). In the end it is about the symbol grounding problem. I have a paper in review (2nd round) at the moment, in which I describe it this way:</div><div>----------------</div><div><span style="font-size:12pt;font-family:"Times New Roman",serif">The creation of </span><span style="font-size:12pt;font-family:"Times New Roman",serif" lang="EN-US">chip materials able to express EM fields structurally
identical to those produced by neurons</span><span style="font-size:12pt;font-family:"Times New Roman",serif" lang="EN-US"> </span><span style="font-size:12pt;font-family:"Times New Roman",serif">can be used to construct artificial neurons that
replicate neuron signal processing through allowing the actual, natural EM fields
to naturally interact in the manner they do in the brain, thereby replicating
the same kind of signalling and signal processing (computation). This kind of
in-silico empirical approach is simply missing from the science. No instances
of in-silico-equivalent EM field replication can be found. Artificial neurons
created this way could help in understanding EM field expression by excitable
cell tissue. It would also facilitate a novel way to test hypotheses in-silico.</span></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">What is the easiest way to test this theory of EMs role in consciousness or intelligence?</div><div dir="auto"><br></div><div dir="auto">Would you consider the creation of an artificial neural network that exhibits intelligent or novel behavior to be a disproof of this EM theory?</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><span style="font-size:12pt;font-family:"Times New Roman",serif">
Neuroscience and physics, together, could embark on such a development. It
would help us reveal the neural dynamics and signal processing that is
unknowingly not captured by the familiar models that abstract-away EM fields
and that currently dominate computational neuroscience. <b style="font-family:"Times New Roman",serif">Note that the
computational exploration of the EM fields (via Maxwell’s equations) impressed
on space by the novel chip would constitute the design phase of the chip. The
design would be sent to a foundry to build. What comes back from the foundry
would express the EM fields themselves. The empirical method would be, to
neuroscience, what the Wright Brothers construction of flying craft did for artificial
flight.</b> </span><br></div><div>-----------------</div><div>The flight analogy is a strong one. Simulation of flight physics is not flight. </div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I see this argument a lot but I think it ignores the all important role of the perspective in question.</div><div dir="auto"><br></div><div dir="auto">For a being in the simulation of flight, it is flight. If we include an observer in the simulation of a rainstorm, they will get wet.</div><div dir="auto"><br></div><div dir="auto">That our hypothetical simulators see only a computer humming along and no water leaking out of their computer says nothing of the experiences and goings-on for the perspective inside the simulation.</div><div dir="auto"><br></div><div dir="auto">As consciousness is all about perspectives and inside views, changing the view to focus on the outside is potentially misleading. I could equivalently say, "A person dreaming of a sunrise sees a yellow sun full of brilliant light, but the room is still pitch dark!" But the darkness of the room doesn't tell me anything about whatever experiences the dreaming brain could be having.</div><div dir="auto"><br></div><div dir="auto">I think it's the same with computer simulations. There's an external view and an internal view. Each tells very little about the other.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>I predict that in exactly the same way, in the appropriate context (novelty), that a simulation of 'braining' will not be a brain (in a manner to be discovered). The reason, I predict, is that the information content in the EM field is far larger than anything found in the peripheral measurement signals hooked to it. The chip that does the fields, I predict, will handle novelty in a way that parts company with the simulation that designed the chip. The chip's behaviour (choices) will be different to the simulation.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I do think that given the chaotic nature of a large and highly complex system where small changes can be magnified, anything not modeled in a brain simulation can lead to divergent behaviors. The question to me is how important those unsimulated aspects are to the fidelity of the mind. Is it all important to the extent the mind is inoperable without including it, or is it something that makes a difference in behavior only after a significantly long run? (Or is it something in between those two extremes?)</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div>The grand assumption of equivalence of "brain" and "computed model of brain" is and has only ever been an assumption, and the testing that determines the equivalence has never been done. </div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I agree with you that it should be.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>You do not find out by assuming the equivalence and never actually testing it with a proper control (null hypothesis). Especially when the very thing that defines the grand failure of AI is when it encounters novelty ... which is exactly what has been happening for 65 years non-stop. </div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I am not sure I would say AI has failed here.</div><div dir="auto"><br></div><div dir="auto">Take for example, my AI bots. They encountered novelty when I changed their environment repeatedly, and each time they responded by developing new more optimum strategies to cope with those changes.</div><div dir="auto"><br></div><div dir="auto">Jason</div></div>
____________</blockquote><div><br></div></div></div><div dir="ltr"><div class="gmail_quote"><div>If  you read the article I posted, you will find the state of affairs that you are projecting into simulation is called 'magical' or radical/strong emergence. Proving true/false what you are projecting into simulation is precisely the final outcome that a proper science of EM-based subjectivity will sort out. My prediction is that none of the things you expect will happen because the EM fields are organized incorrectly. They are organized in the form of a computer. Everything that the brain does to organize subjectivity is lost.</div><div><br></div><div>So I guess we'll just have to wait till the science gets done properly. Only then will you know whether any of your expectations are valid. </div></div></div></blockquote><div dir="auto"><br></div><div dir="auto">It’s a given that the computer is not the same as whatever it is simulating, but are you saying that the effect of EM fields on matter cannot be simulated?</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" dir="auto"><div dir="ltr"><div class="gmail_quote"><div dir="auto"></div></div></div>
</blockquote></div></div>-- <br><div dir="ltr">Stathis Papaioannou</div></blockquote><div><br></div></div></div><div dir="ltr"><div class="gmail_quote"><div>In the extraordinary context of a braIn, that the standard model of particle physics tells us is 100% EM field from the atomic level up ... is where we have the only instance of a proved 1st-person perspective. That is, 'being' the particular EM field system that literally 'is' a brain, involves contact with information content of the EM field system (the 1st-person perspective itself) that appears to have a vast amount of innate information in it that involves the external world. That information content, or access to it, <b>is not in any of Maxwell's equations </b>and is degenerately (non-uniquely, irresolvably) related to any of the  physical input/output signals. So ... No: Not Turing Computable. To explore it you need to replicate the physics itself to test this as a hypothesis, not simulate. The test context that sorts it out is the very context where all AI/AGI fails: where the system encounters something it has never encountered before. In that state, the computer simulaiton and the hardware (field) replication would part company in interesting ways.</div><div><br></div><div>The only way Maxwell's equations could somehow deliver all the information is if you simulate the entire external world as well, which you can't because you don't have all the information.</div><div><br></div><div>Overall....I am saying that the science that would prove what everybody is assuming for 65 years involves using hardware that is not a general purpose computer. AGI's future is critically dependent on that science being done and it has not been done.</div><div><br></div><div>Does that make sense?</div></div></div></blockquote><div dir="auto"><br></div><div dir="auto">So are you saying that it would be possible in theory to calculate the trajectory of calcium atoms in a lump of marble but not calcium atoms in my big toe?</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div dir="auto"></div></div></div></blockquote></div></div>-- <br><div dir="ltr">Stathis Papaioannou</div><div dir="ltr"></div></blockquote></div></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><br></div></div><div dir="auto"><div dir="auto">Not at all. The marble and the big toe are EM field systems. But </div><div dir="auto"><br></div><div dir="auto">1) they are not organized the way a brain's EM  is organized</div><div dir="auto">2) unlike the brain there is no 1st person perspective for either marble or toe (the toe's apparent 1PP is projected by the brain onto the toe).</div><div dir="auto"><br></div><div dir="auto">The ions are not the field system. They generate a field system and carry it around.</div></div></blockquote><div dir="auto"><br></div><div dir="auto">A human can communicate with their big toe, so if it is possible to calculate the trajectory of calcium atoms in the bones of the big toe, it is possible to replicate human intelligence. We don’t need to say that the toe is conscious, we just need to know how the calcium atoms in the distal phalanx of the big toe move. Are you saying that the forces on those atoms are fundamentally different from the forces on calcium atoms elsewhere?</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"></div></div>
</blockquote></div></div>-- <br><div dir="ltr">Stathis Papaioannou</div><div dir="ltr"></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">No. What you are saying is both right and irrelevant. Brain's use information encode in the field system, which is degenerately related to the position of ions. Stop talking about ion positions and start talking about "what it is like to BE ions. If you cannot see the problem space, then this discussion cannot progress anywhere. </div><div dir="auto"><br></div><div dir="auto">The information content in the total, emergent field system (not just their ionic charge source locations) is what I am talking about.</div></div></blockquote><div><br></div><div>I am not clear from what you said whether you think it is possible, in theory, to calculate the trajectory of the calcium atoms in the tip of a human big toe.<br></div></div><br clear="all"><br>-- <br><div dir="ltr">Stathis Papaioannou</div></div><div id="m_-7438638937091832737DAB4FAD8-2DD7-40BB-A1B8-4E2AA1F9FDF2"><br>
<table style="border-top:1px solid #d3d4de">
        <tr>
        <td style="width:55px;padding-top:13px"><a href="https://www.avast.com/sig-email?utm_medium=email&utm_source=link&utm_campaign=sig-email&utm_content=webmail" target="_blank" rel="noreferrer"><img src="https://ipmcdn.avast.com/images/icons/icon-envelope-tick-round-orange-animated-no-repeat-v1.gif" alt="" width="46" height="29" style="width:46px;height:29px"></a></td>
                <td style="width:470px;padding-top:12px;color:#41424e;font-size:13px;font-family:Arial,Helvetica,sans-serif;line-height:18px">Virus-free. <a href="https://www.avast.com/sig-email?utm_medium=email&utm_source=link&utm_campaign=sig-email&utm_content=webmail" style="color:#4453ea" target="_blank" rel="noreferrer">www.avast.com</a>
                </td>
        </tr>
</table><a href="#m_-7438638937091832737_DAB4FAD8-2DD7-40BB-A1B8-4E2AA1F9FDF2" width="1" height="1" rel="noreferrer"></a></div>
</blockquote></div>