<div style="font-family: Arial, sans-serif; font-size: 14px;"><span style="font-family: system-ui, sans-serif; font-size: 0.875rem;">On Monday, February 27th, 2023 at 12:48 PM, Gadersd via extropy-chat <extropy-chat@lists.extropy.org> wrote:</span></div><div class="protonmail_quote"><div class=""><br></div><blockquote class="protonmail_quote" type="cite"><div class=""><font class="" color="#000000">Please note the term “well-defined.” It is easy to hand wave a goal that sounds right but rigorously codifying such as goal so that an AGI may be programmed to follow it has so far been intractable.</font></div></blockquote><div class="" style="font-family: Arial, sans-serif; font-size: 14px; color: rgb(0, 0, 0);"><font class="" color="#000000"><br></font></div><div class="" style="font-family: Arial, sans-serif; font-size: 14px; color: rgb(0, 0, 0);"><font class="" color="#000000">Why would you ask a super intelligent AI with solving goals rather than asking it how the goals could be achieved?</font></div><div class="" style="font-family: Arial, sans-serif; font-size: 14px; color: rgb(0, 0, 0);"><br></div><div class="" style="font-family: Arial, sans-serif; font-size: 14px; color: rgb(0, 0, 0);">Why would you give a super intelligent AI the unchecked power to do potentially catastrophic things?</div><div class="" style="font-family: Arial, sans-serif; font-size: 14px; color: rgb(0, 0, 0);"><br></div><div class="" style="font-family: Arial, sans-serif; font-size: 14px; color: rgb(0, 0, 0);">-Dave</div>
    </div>