<div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Sun, Oct 5, 2025 at 3:24 PM Ben Zaiboc via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:</span></div></div><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>Hmm.<span class="gmail_default" style=""> </span>We're not just talking about software, though. This is very complex<span class="gmail_default" style=""> </span>hardware as well.</i></font></blockquote><div><br></div><font size="4" face="tahoma, sans-serif"><b>That's true but even if we don't take nanotechnology into consideration (and we really should) the dividing line between software and hardware is starting to become a little blurred. If you divide any modern AI into smaller and smaller components you'll find that its fundamental operation is simply matrix multiplication, the sort of thing you probably learned in high school.   </b></font><div><br></div><div><b><font size="4" face="tahoma, sans-serif">An AI called AlphaTensor found an algorithm for multiplying two matrices together that was faster than anything humans had ever found. With this new algorithm computers can multiply two 10 by 10 matrices together 20% faster than they could with the fastest<span class="gmail_default" style=""></span> human derived algorithm that was used before. Almost as soon as it was discovered chip companies <span class="gmail_default" style="">like</span> Nvidi<span class="gmail_default" style="">a</span><span class="gmail_default" style=""> </span>started devoting dedicated circuitry to perform this new algorithm. So is this an advancement in software or hardware?</font></b></div><div><b style="font-family:tahoma,sans-serif;font-size:large"><br></b></div><div><font size="4" style="" face="tahoma, sans-serif"><b>Obviously this is a positive feedback loop because in order to operate all AI's need to do <u style="">a LOT</u> of matrix multiplication<span class="gmail_default" style="">,</span> and with more efficient ways to perform <span class="gmail_default" style="">it</span> you can do more of it so<span class="gmail_default" style=""> </span>you get smarter AIs that can find even better algorithms. The following article is from <span class="gmail_default" style="">the </span>October 5, 2022 issue of the journal Nature:</b></font></div><div><span style="font-size:large"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif"><br></span></span></div><div><span style="font-size:large"><span class="gmail_default" style=""><a href="https://www.nature.com/articles/s41586-022-05172-4.pdf" style=""><b style=""><font face="tahoma, sans-serif">Discovering faster matrix multiplication algorithms with reinforcement learning</font></b></a><br></span></span></div><div><span style="font-size:large"><br></span></div><div><span class="gmail_default" style=""><font size="4" style="" face="tahoma, sans-serif"><b style="">John K Clark</b></font></span></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br>
</blockquote></div></div>