<div><br></div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, 27 Apr 2022 at 06:27, Colin Hales via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex" dir="auto"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"></div></div><div dir="ltr"><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Apr 26, 2022 at 10:14 PM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Apr 26, 2022, 1:53 AM Colin Hales <<a href="mailto:col.hales@gmail.com" target="_blank">col.hales@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Apr 26, 2022 at 2:13 PM Jason Resch <<a href="mailto:jasonresch@gmail.com" rel="noreferrer" target="_blank">jasonresch@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Apr 25, 2022 at 11:09 PM Colin Hales <<a href="mailto:col.hales@gmail.com" rel="noreferrer" target="_blank">col.hales@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Apr 26, 2022 at 2:01 PM Jason Resch <<a href="mailto:jasonresch@gmail.com" rel="noreferrer" target="_blank">jasonresch@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Apr 25, 2022 at 10:54 PM Colin Hales via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Apr 26, 2022 at 1:02 PM Rafal Smigrodzki via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div></div></blockquote><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div>### I would be very surprised if the functional capabilities of brains turned out to be impossible to replicate in digital, Turing-equivalent computers. </div><div><br></div><div>Rafal</div></div></div></blockquote><div><br></div><div>Wouldn't it be great to actually do some empirical science to find out? Like start acting as if it was true (impossible) and start building artificial inorganic brain  tissue that is NOT a general-purpose computer (that artificial tissue would also have functionally relevant EEG and MEG), and then comparing its behaviour with the general-purpose computer's model of of the same tissue?</div><div><br></div></div></div></blockquote><div><br></div><div>It looks like this work is in the process of being done:</div><div><a href="https://www.youtube.com/watch?v=ldXEuUVkDuw" rel="noreferrer" target="_blank">https://www.youtube.com/watch?v=ldXEuUVkDuw</a></div><div><br></div><div>Jason </div></div></div></blockquote><div><br></div><div>Not even close. Can you see what just happened? There's a general purpose computer and software involved.  The game ends right there! Did you not read what I wrote.<br><br></div><div>To build an artificial version of natural tissue is not to simulate anything. You build the EM field system literally. The use of computers is a design tool, not the end product. The chips that do this would be 3D and have an EEG and MEG like brain tissue. No computers. No software.</div><div><br></div><div>The game has changed!</div><div><br></div></div></div></blockquote><div><br></div><div>What if the computer simulation includes the EM fields?</div><div><br></div><div>Would that be sufficient to make a  conscious program?</div><div><br></div><div>If not, do you predict the computer simulation including the EM fields would diverge in behavior from the actual brain?</div><div><br></div><div>Jason </div></div></div></blockquote><div><br></div><div><b>This is exactly the right question!</b></div><div><br></div><div>To find out you have to do it. You do not know. I think I know, but I can't claim to have proof because nobody has done the experiment yet. My experimental work is at the beginning of testing a hypothesis that the real EM field dynamics and the simulation's dynamics will not track, and that the difference will be the non-computable aspect of brains. </div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I commend you and your work for challenging base assumptions. Such work is always needed in science for progress to be made.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>The difference, I predict, will be in how the devices relate to the external world, which is something that cannot be in any model because it is precisely when the external world is unknown (that nobody can program) that you are interested in its response (that forms the test context of interest). In the end it is about the symbol grounding problem. I have a paper in review (2nd round) at the moment, in which I describe it this way:</div><div>----------------</div><div><span style="font-size:12pt;font-family:"Times New Roman",serif">The creation of </span><span lang="EN-US" style="font-size:12pt;font-family:"Times New Roman",serif">chip materials able to express EM fields structurally
identical to those produced by neurons</span><span lang="EN-US" style="font-size:12pt;font-family:"Times New Roman",serif"> </span><span style="font-size:12pt;font-family:"Times New Roman",serif">can be used to construct artificial neurons that
replicate neuron signal processing through allowing the actual, natural EM fields
to naturally interact in the manner they do in the brain, thereby replicating
the same kind of signalling and signal processing (computation). This kind of
in-silico empirical approach is simply missing from the science. No instances
of in-silico-equivalent EM field replication can be found. Artificial neurons
created this way could help in understanding EM field expression by excitable
cell tissue. It would also facilitate a novel way to test hypotheses in-silico.</span></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">What is the easiest way to test this theory of EMs role in consciousness or intelligence?</div><div dir="auto"><br></div><div dir="auto">Would you consider the creation of an artificial neural network that exhibits intelligent or novel behavior to be a disproof of this EM theory?</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><span style="font-size:12pt;font-family:"Times New Roman",serif">
Neuroscience and physics, together, could embark on such a development. It
would help us reveal the neural dynamics and signal processing that is
unknowingly not captured by the familiar models that abstract-away EM fields
and that currently dominate computational neuroscience. <b>Note that the
computational exploration of the EM fields (via Maxwell’s equations) impressed
on space by the novel chip would constitute the design phase of the chip. The
design would be sent to a foundry to build. What comes back from the foundry
would express the EM fields themselves. The empirical method would be, to
neuroscience, what the Wright Brothers construction of flying craft did for artificial
flight.</b> </span><br></div><div>-----------------</div><div>The flight analogy is a strong one. Simulation of flight physics is not flight. </div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I see this argument a lot but I think it ignores the all important role of the perspective in question.</div><div dir="auto"><br></div><div dir="auto">For a being in the simulation of flight, it is flight. If we include an observer in the simulation of a rainstorm, they will get wet.</div><div dir="auto"><br></div><div dir="auto">That our hypothetical simulators see only a computer humming along and no water leaking out of their computer says nothing of the experiences and goings-on for the perspective inside the simulation.</div><div dir="auto"><br></div><div dir="auto">As consciousness is all about perspectives and inside views, changing the view to focus on the outside is potentially misleading. I could equivalently say, "A person dreaming of a sunrise sees a yellow sun full of brilliant light, but the room is still pitch dark!" But the darkness of the room doesn't tell me anything about whatever experiences the dreaming brain could be having.</div><div dir="auto"><br></div><div dir="auto">I think it's the same with computer simulations. There's an external view and an internal view. Each tells very little about the other.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>I predict that in exactly the same way, in the appropriate context (novelty), that a simulation of 'braining' will not be a brain (in a manner to be discovered). The reason, I predict, is that the information content in the EM field is far larger than anything found in the peripheral measurement signals hooked to it. The chip that does the fields, I predict, will handle novelty in a way that parts company with the simulation that designed the chip. The chip's behaviour (choices) will be different to the simulation.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I do think that given the chaotic nature of a large and highly complex system where small changes can be magnified, anything not modeled in a brain simulation can lead to divergent behaviors. The question to me is how important those unsimulated aspects are to the fidelity of the mind. Is it all important to the extent the mind is inoperable without including it, or is it something that makes a difference in behavior only after a significantly long run? (Or is it something in between those two extremes?)</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div>The grand assumption of equivalence of "brain" and "computed model of brain" is and has only ever been an assumption, and the testing that determines the equivalence has never been done. </div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I agree with you that it should be.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>You do not find out by assuming the equivalence and never actually testing it with a proper control (null hypothesis). Especially when the very thing that defines the grand failure of AI is when it encounters novelty ... which is exactly what has been happening for 65 years non-stop. </div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I am not sure I would say AI has failed here.</div><div dir="auto"><br></div><div dir="auto">Take for example, my AI bots. They encountered novelty when I changed their environment repeatedly, and each time they responded by developing new more optimum strategies to cope with those changes.</div><div dir="auto"><br></div><div dir="auto">Jason</div></div>
____________</blockquote><div><br></div></div></div><div dir="ltr"><div class="gmail_quote"><div>If  you read the article I posted, you will find the state of affairs that you are projecting into simulation is called 'magical' or radical/strong emergence. Proving true/false what you are projecting into simulation is precisely the final outcome that a proper science of EM-based subjectivity will sort out. My prediction is that none of the things you expect will happen because the EM fields are organized incorrectly. They are organized in the form of a computer. Everything that the brain does to organize subjectivity is lost.</div><div><br></div><div>So I guess we'll just have to wait till the science gets done properly. Only then will you know whether any of your expectations are valid. </div></div></div></blockquote><div dir="auto"><br></div><div dir="auto">It’s a given that the computer is not the same as whatever it is simulating, but are you saying that the effect of EM fields on matter cannot be simulated?</div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex" dir="auto"><div dir="ltr"><div class="gmail_quote"><div dir="auto"></div></div></div>
</blockquote></div></div>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature">Stathis Papaioannou</div>