<div dir="ltr"><div class="gmail-grid--item gmail-body gmail-body__container gmail-article__body gmail-grid-layout__content" style="box-sizing:border-box;margin:0px auto 1rem;max-width:1600px;line-height:1.47368em;letter-spacing:0.10792px;font-family:BreveText,helvetica,sans-serif;font-size:19px;font-feature-settings:normal;line-break:auto;padding:0px;color:rgb(26,26,26);width:631.469px"><p class="gmail-paywall" style="box-sizing:border-box;letter-spacing:0.10792px">"<a class="external-link" href="https://cerebras.net/" rel="nofollow noopener" target="_blank" style="box-sizing:border-box;background-color:transparent;color:rgb(26,26,26);line-height:inherit">Cerebras Systems</a>, a startup that has already <a href="https://www.wired.com/story/power-ai-startup-built-really-big-chip/" style="box-sizing:border-box;background-color:transparent;color:rgb(26,26,26);line-height:inherit">built the world’s largest computer chip</a>, has now developed technology that lets a cluster of those chips run AI models that are more than a hundred times bigger than the most gargantuan ones around today.</p><p class="gmail-paywall" style="box-sizing:border-box;letter-spacing:0.10792px">Cerebras says it can now run a neural network with 120 trillion connections, mathematical simulations of the interplay between biological neurons and synapses. The largest AI models in existence today have about a trillion connections, and they cost many millions of dollars to build and train. But Cerebras says its hardware will run calculations in about a 50th of the time of existing hardware. Its chip cluster, along with power and cooling requirements, presumably still won’t come cheap, but Cerberas at least claims its tech will be substantially more efficient."</p><p class="gmail-paywall" style="box-sizing:border-box"><a href="https://www.wired.com/story/cerebras-chip-cluster-neural-networks-ai/">https://www.wired.com/story/cerebras-chip-cluster-neural-networks-ai/</a> </p></div></div>