<div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Sat, Nov 29, 2025 at 9:06 AM Ben Zaiboc via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:</span></div></div><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>nothing anyone can actually do in practice will have an effect. We are racing into the future, faster and faster. That's the nature of exponential progress. Personally, I welcome it, but as I've said before, for me, the important thing is that intelligence survives and grows. Humans surviving would be very nice, but is still secondary, so the 'existential risk' aspect is not so important, philosophically speaking. As long as intelligent awareness of some sort gets through the coming bottleneck, I'll count that as a win. </i></font></blockquote><div><br></div><div><font size="4"><b>I agree with that 100%.<span class="gmail_default" style="font-family:arial,helvetica,sans-serif"> </span> </b></font></div><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><font size="4" face="tahoma, sans-serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Humans in general getting through it would be a bonus. Me personally getting through it comes a distant third.</i></font></blockquote><div><font size="4" face="tahoma, sans-serif"><b><br></b></font></div><div><font size="4" face="tahoma, sans-serif"><b>My agreement is not quite as strong on that one.<span class="gmail_default" style="font-family:arial,helvetica,sans-serif"> </span>I'm a bit of a selfish bastard so I would switch priorities<span class="gmail_default" style="">.</span> </b></font></div><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><font size="4" face="georgia, serif"><i>
    <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>I think the ai-2027 attempt at prediction is just as wrong as any
    other.</i></font></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>I think the precise predictions they make are <span class="gmail_default" style="">almost </span>certainly wrong<span class="gmail_default" style="">, like the year and the month the Chinese will steal the source code and the weights of a bleeding edge frontier AI model, but I think the general trend and the dates they predict when certain AI milestones will be achieved will prove to be approximately correct.  </span> </b></font></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>What will happen will probably surprise us all, regardless of
    what anyone currently thinks.</i></font></div></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>Yeah, whenever the <span class="gmail_default" style="font-family:arial,helvetica,sans-serif">S</span>ingularity happens it's going to be a big surprise.<span class="gmail_default" style=""> </span></b></font></div><div><font size="4" face="tahoma, sans-serif"><b><br></b></font></div><div class="gmail_default" style=""><font size="4" style="" face="tahoma, sans-serif"><b style="">John K Clark</b></font></div><div><br></div><div><br></div><div><br></div><div> </div></div></div>