<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr">On Fri, Feb 28, 2025 at 1:21 PM Adrian Tymes <<a href="mailto:atymes@gmail.com">atymes@gmail.com</a>> wrote:</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div> I wrote:</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div>### We are ever closer to the intelligence explosion and the signs of its approach are ever more obvious, that's what's different.</div></div></div></blockquote><div>Adrian wrote:</div></div></div></blockquote><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>And we will be closer 10 years from now, then 10 years after that.  Almost all definitions of "few years" refer to a time span of less than 10 years.  Unless the intelligence explosion will definitely happen within the next 10 years, the statement "the next few years on Earth may be pivotal to the organization of matter in this galaxy" is false even if the intelligence explosion would control the organization of matter in this galaxy - which premise relies on several other untested assumptions.</div></div></div></blockquote><div><br></div><div>### Nothing is definite but I bet you 100$ to 1$ that ten years from now there will be a superhuman AI on this planet, most likely a vastly superhuman AI, as much smarter than you or I as MuZero is better at Go than Lee Sedol.</div><div>----------------------------------</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div>You imply that the fork of now is greater than any that have ever been, or ever will be.  I call bullshit, because every single time someone has claimed that before it has been utterly wrong, for reasons that appear to apply this time as well.</div></div></div></blockquote><div><br></div><div>### Yes, I think it will be the most important fork since our ancestors evolutionarily committed to boosting cooperative, tool- and process-oriented intelligence over physical characteristics in these last two million years or so.</div><div><br></div><div>But I only say it will be the last fork in the road that we take on our own, not the last developmental fork ever.</div><div><br></div><div>-------------------------------------</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div><br></div><div>You also imply that there will effectively be no further forks - that once an AI reaches intelligence explosion, there can be no further choices made.</div></div></div></blockquote><div><br></div><div>### Lots of important choices will be made, but not by unenhanced humans who will pretty much equal mice in their ability to affect the world. </div><div><br></div><div>If the SAI lets us upload and boost ourselves we will have a seat at the table though.</div><div><br></div></div><span class="gmail_signature_prefix">-- </span><br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div>Rafal Smigrodzki, MD-PhD<br>Schuyler Biotech PLLC</div></div></div></div>