<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 28, 2023, 12:46 AM Giovanni Santostasi via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">I used to believe that consciousness is fundamental because of my interest in Eastern philosophy. But it is a lie. <br></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I would say that consciousness is not the most fundamental aspect of reality (I would put Truth in that category, and from truth, next we get numbers and their mathematical relations). From mathematical relations we get computations, and from computations, consciousness.</div><div dir="auto"><br></div><div dir="auto">So then there is a real sense in which consciousness is more fundamental than physics. Apparent physical universes, and their laws and properties emerge from the psychology of Turing machines. Or put another way: physical reality is what platonic conscious computations dream.</div><div dir="auto"><br></div><div dir="auto">This is a form of idealism, but one structured by mathematical laws and the probability distribution as defined by algorithmic information theory, and an idealism that defines the relation between the three modes of existence: the mathematical, material, and mental realities.</div><div dir="auto"><br></div><div dir="auto">Jason </div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br>Giovanni </div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Apr 27, 2023 at 9:34 PM Gordon Swobe via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Quite by accident, I happened upon this quote of Erwin Schrodinger this evening.<br><br>"Consciousness cannot be explained in physical terms. Because consciousness is absolutely fundamental. It cannot be explained in any other terms." <br><br>That is actually what I also hold to be true about consciousness, though not necessarily for reasons related to quantum mechanics or eastern philosophy. (Schrodinger is said to have been influenced by eastern philosophy). <br><br>-gts<br><br>-gts </div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Apr 27, 2023 at 8:43 PM spike jones via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div lang="EN-US"><div><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p><div style="border-right:none;border-bottom:none;border-left:none;border-top:1pt solid rgb(225,225,225);padding:3pt 0in 0in"><p class="MsoNormal"><b>From:</b> Gordon Swobe <<a href="mailto:gordon.swobe@gmail.com" target="_blank" rel="noreferrer">gordon.swobe@gmail.com</a>> <br><b>Subject:</b> Re: [ExI] Ben Goertzel on Large Language Models<u></u><u></u></p></div><p class="MsoNormal"><u></u> <u></u></p><div><div><p class="MsoNormal">On Thu, Apr 27, 2023 at 6:51 PM spike jones via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<u></u><u></u></p></div><div><blockquote style="border-top:none;border-right:none;border-bottom:none;border-left:1pt solid rgb(204,204,204);padding:0in 0in 0in 6pt;margin-left:4.8pt;margin-right:0in"><div><div><div><div><div><p class="MsoNormal">It looks to me like GPT has intelligence without consciousness.<u></u><u></u></p></div></div></div></div></div></blockquote><div><p class="MsoNormal"><br>>…That is how it looks to me also, and to GPT-4. When asked if consciousness and intelligence are separable, it replied that the question is difficult to answer with biological systems, but...<br><br>>…"From the perspective of artificial intelligence, it is possible to create systems with high levels of intelligence that lack consciousness. AI models like mine can learn from vast amounts of data and perform complex tasks, but we do not have subjective experiences or self-awareness." - GPT4<br><br>-gts<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">This leads to a disturbing thought: intelligence without consciousness becomes Eliezer’s unfriendly AI.<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Since I am on the topic of disturbing thoughts, I had an idea today as I was in Costco going past the item shown below.  Compare now to fifty years ago.  Some of us here may remember spring of 1973.  I do.<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Imagine it is 1973 and suddenly all networked computers stopped working or began working incorrectly, such as being completely choked with spam.<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><img border="0" width="247" height="316" style="width:2.5729in;height:3.2916in" id="m_4068164759599170799m_-2554786472538220745m_-4507991345249670481Picture_x0020_1" src="cid:187c60b7d164ce8e91"><u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Most of the things we had in 1973 would still work, as we were not heavily dependent on the internet then.<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Now imagine that happening today all networked computers quit or are overwhelmed so they don’t work right.  It really isn’t as simple as returning to 1973-level technology.  We cannot do that, for we have long since abandoned the necessary skillsets and infrastructure needed to sustain society at that tech level.  If you think about the most immediate consequences, they are horrifying.  It wouldn’t take long for all the food to be gone and no more would be coming in, for the networks needed for transportation infrastructure would all be down.  Most of the population in the tech advanced civilizations would perish from starvation or violence in the resulting panicked chaos.<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">There are those who would see the destruction of a large fraction of humanity as a good thing: radical greens for instance.<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">This is what caused me to comment that humans using AI for bad ends is a more immediate existential risk than is unfriendly AI.  This unfriendly AI would not necessarily wish to destroy humanity, but an unfriendly BI will use AI, which would remorselessly participate in any nefarious plot it was asked to do. <u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">spike  <u></u><u></u></p></div></div></div></div></div>_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</div></blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div></div></div>