<div dir="ltr"><div><a href="https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/">https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/</a><br></div><div><br></div>We live in a timeline where Eliezer Yudkowsky just got published in Time magazine responding to a proposal to halt or at least drastically curtail AI research due to existential risk fears.<div><br></div><div>Without commencing on the arguments on either side or the qualities thereof, can I just say how f*cking BONKERS that is?!</div><div><br></div><div>This is the sort of thing that damages my already very put upon and rapidly deteriorating suspension of disbelief.</div><div><br></div><div>If you sent 25-years-ago-me the single sentence "In 2023, Eliezer Yudkowsky will get published in Time magazine responding to a proposal to halt or at least drastically curtail AI research due to existential risk fears." I would probably have concluded I was already in a simulation.</div><div><br></div><div>And I'm not certain I would have been wrong.</div></div>