<div dir="auto"><div><br><br><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr">On Tue, Nov 4, 2025, 9:32 PM spike jones via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div lang="EN-US" link="#0563C1" vlink="#954F72" style="word-wrap:break-word"><div class="m_3193343500164387938WordSection1"><p class="MsoNormal"><span style="font-size:11.0pt">OK sure, this site is all about the singularity being near, and OK sure, I am a big heretic for even entertaining the notion it might not be.<u></u><u></u></span></p><p class="MsoNormal"><span style="font-size:11.0pt"><u></u> <u></u></span></p><p class="MsoNormal"><span style="font-size:11.0pt">But what if… the Singularity is a coupla decades off still, and Kurzweil was mostly right, but off a little, and the Singularity is still coming but not right away?</span></p></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Have you seen my megatrends presentation?</div><div dir="auto"><br></div><div dir="auto"><a href="https://docs.google.com/presentation/d/18jn51f6DXMykCAL6gjZilK27TXAZielm5djcnHuh-7k/edit?usp=drivesdk">https://docs.google.com/presentation/d/18jn51f6DXMykCAL6gjZilK27TXAZielm5djcnHuh-7k/edit?usp=drivesdk</a> (Note there is additional information in the "slide notes," but you may be to be in a desktop computer to see them).</div><div dir="auto"><br></div><div dir="auto">The trends are (from what I can tell) aligned with a near term < 6 years away (pessimistic), and possibly < 2 year away (optimistic), intelligence explosion.</div><div dir="auto"><br></div><div dir="auto">Of course, there could be a derailment. We might hit some road block in making faster chips, or have some kind of economic or energy shock which stalls progress in AI. But until we see such signs I think we can assume we're on track for a singular that's near.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div lang="EN-US" link="#0563C1" vlink="#954F72" style="word-wrap:break-word"><div class="m_3193343500164387938WordSection1"><p class="MsoNormal"><span style="font-size:11.0pt"><u></u><u></u></span></p><p class="MsoNormal"><span style="font-size:11.0pt"><u></u> <u></u></span></p><p class="MsoNormal"><span style="font-size:11.0pt">Then what?  Do I get to sell Singularity insurance? </span></p></div></div></blockquote></div></div><div dir="auto">I suppose if one worries about a delayed singularity, they should continue saving for retirement.</div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div lang="EN-US" link="#0563C1" vlink="#954F72" style="word-wrap:break-word"><div class="m_3193343500164387938WordSection1"><p class="MsoNormal"><span style="font-size:11.0pt"> <u></u><u></u></span></p><p class="MsoNormal"><span style="font-size:11.0pt"><u></u> <u></u></span></p><p class="MsoNormal"><span style="font-size:11.0pt">Because it appears to me that what we are calling AI might be a kind of false alarm: a big advance in smart search might make us think the Singularity is nearer than it really is.</span></p></div></div></blockquote></div></div><div dir="auto">Even if progress in LLMs stopped where it is today, it's already able to upgrade the IQs of most of the population by 20-40 points, acts as a  professor/tutor/expert in your pocket, knowledgeable on almost every subject, and can turn any natural language speaker into at least a modest computer programmer.</div><div dir="auto"><br></div><div dir="auto">So if the singularity was 20 years away before LLMs when the world has just 50 million programmers, how much nearer does it become it with 5 billion programmers (or even just 500 million)?</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div lang="EN-US" link="#0563C1" vlink="#954F72" style="word-wrap:break-word"><div class="m_3193343500164387938WordSection1"><p class="MsoNormal"><span style="font-size:11.0pt"><u></u><u></u></span></p><p class="MsoNormal"><span style="font-size:11.0pt"><u></u> <u></u></span></p><p class="MsoNormal"><span style="font-size:11.0pt">Then what?  What if… intelligence really is substrate dependent for reasons we don’t currently understand,</span></p></div></div></blockquote></div></div><div dir="auto">We already know intelligence isn't substrate dependent, for we already have intelligent software systems, and software can run in any computer, whatever it's physical substrate may be.</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div lang="EN-US" link="#0563C1" vlink="#954F72" style="word-wrap:break-word"><div class="m_3193343500164387938WordSection1"><p class="MsoNormal"><span style="font-size:11.0pt"> or the Singularity depends on technology we don’t yet have.</span></p></div></div></blockquote></div></div><div dir="auto">Our brains, and all modern AI, are based on the technology of the neuron (or artificial neuron respectively). I J. Good, when he wrote in the ultra intelligent machine predicted (in 1965) that the first ultra intelligent machine would be based on artificial neural networks.</div><div dir="auto"><br></div><div dir="auto">And further, we have discovered general purpose learning algorithms. DeepMind made a single AI that was able to master 57 different Atari games entirely on its own, with no specific training or instruction.</div><div dir="auto"><br></div><div dir="auto">I don't think there are any missing breakthroughs separating us from super intelligence, there's only increasing training time and collecting larger sets of training data.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div lang="EN-US" link="#0563C1" vlink="#954F72" style="word-wrap:break-word"><div class="m_3193343500164387938WordSection1"><p class="MsoNormal"><span style="font-size:11.0pt"><u></u><u></u></span></p><p class="MsoNormal"><span style="font-size:11.0pt"><u></u> <u></u></span></p><p class="MsoNormal"><span style="font-size:11.0pt">Then we would predict the Singularity sooner than it is, ja?<u></u><u></u></span></p><p class="MsoNormal"><span style="font-size:11.0pt"><u></u> <u></u></span></p><p class="MsoNormal"><span style="font-size:11.0pt">Singularity thinkers come on, help me Obi wans, alla yas: might we be in a situation where we are fooling ourselves?  OK then what please?</span></p></div></div></blockquote></div></div><div dir="auto">The beauty (or horror) of exponential trends, is that even if we underestimate what's required to achieve super intelligence by 1000-fold, that only postpones things by 10 doublings.</div><div dir="auto"><br></div><div dir="auto">Jason</div><div dir="auto"><br></div></div>