<div dir="ltr"><div dir="ltr">On Mon, Nov 20, 2023 at 12:54 PM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>Thanks for the comments and questions.<br></div></div></blockquote><div><br></div><div>You are welcome.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div></div><div class="gmail_quote"><div>I believe if there were powerful arguments as to why AI commercialization could be dangerous, it could at least be severely restricted.</div></div></div></blockquote><div><br></div><div>I don't - short of impractically extreme measures (again offering Elizer's suggestions as a well known example).  Effective laws won't be passed in the US - and even if they could be, that leaves China and Russia (among others) to do as they will (which is one of the reasons why they are unlikely in the US).</div><div><br></div><div>Note: "could".  Your topic title asked, "Should".  There is a big difference between the two; "could not" generally overrides any question of "should".<br></div></div></div>