<div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:#000000"><div><h1>The prophet of Silicon Valley doom: 'We must stop, we are not ready for AI'</h1></div><div><h2><span disabled>Eliezer
 Yudkowsky, a pioneer in AI research, called for halting AI development 
before it's too late; according to him, humanity lacks the ability to 
control technology that will eventually surpass human intelligence; 'It 
can evolve beyond our control'</span></h2></div><div><div><div style="max-width:400px"><span><a href="https://www.ynetnews.com/topics/Amir_Bogen" title="נפתח בכרטיסייה חדשה" target="_blank">Amir Bogen</a>    </span><span>03.17.25 </span></div></div></div></div><div class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:#000000"><br></div><div class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:#000000"><<a href="https://www.ynetnews.com/business/article/b1sorkin1x" target="_blank">https://www.ynetnews.com/business/article/b1sorkin1x</a>></div><div class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:#000000"><br></div><div class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:#000000">Quotes:</div><div class="gmail_default" style="font-family:arial,sans-serif;font-size:small;color:#000000"><div><div><span><span>Yudkowsky also criticized public misconceptions about AI, particularly the belief that AI will remain confined to an advisory role. "People think no one would be foolish enough to create an AI that acts independently," he said. "They also assume there’s no need for AGI when specialized AI can handle tasks like language translation or medical diagnostics."</span></span></div></div><div><div><span><span>According to Yudkowsky, these assumptions have already been debunked. "Not only do we already have AGI systems delivering impressive results," he said, "but some are also capable of making decisions and acting independently. We must stop everything. We are not ready. We do not have the technological capability to design a super intelligent AI that is polite, obedient and aligned with human intentions — and we are nowhere close to achieving that."</span></span></div><div><span><span><br></span></span></div><div><div><div><span><span>Drawing on his knowledge of AI and his readings in history, Yudkowsky believes AI poses a greater threat than any political conflict. "The human brain is flawed. We are plagued by self-doubt and the fear of failure," he explained. "Machines, by contrast, pursue their objectives relentlessly. When the Stockfish chess engine plays against a human, it does not hesitate. AI systems will operate similarly — without second-guessing or considering the consequences."</span></span></div><div><span><span>---------------------</span></span></div><div><span><span><br></span></span></div><div><span><span>"Danger, Will Robinson!" indeed.</span></span></div><div><span><span><br></span></span></div><div><span><span>BillK</span></span></div></div><br></div></div><br></div></div>
</div>