<html><head><meta http-equiv="content-type" content="text/html; charset=us-ascii"></head><body style="overflow-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;"><br><div><br><blockquote type="cite"><div>On Apr 3, 2023, at 2:52 AM, Rafal Smigrodzki via extropy-chat <extropy-chat@lists.extropy.org> wrote:</div><br class="Apple-interchange-newline"><div><span style="caret-color: rgb(0, 0, 0); font-family: Helvetica; font-size: 24px; font-style: normal; font-variant-caps: normal; font-weight: 400; letter-spacing: normal; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; word-spacing: 0px; -webkit-text-stroke-width: 0px; text-decoration: none; float: none; display: inline !important;">The AI would not make any trivial mistakes, ever, including mistakes in ethical reasoning.</span></div></blockquote></div><br><div><br></div><div>I can agree with what you said except this. I believe that the more intelligent a species the more profound mistakes it can make. I think this is simply because the more intelligent a mind is the more choices open to it and the greater the possibility that some of those choices will be wrong, even by its own moral code.</div><div><br></div><div>I'm not a doomsayer about AI. This applies to any sentient beings, human, animal, machine or alien.</div><div><br></div><div>This is simply, to me, part of any definition of intelligence, that it evolves to guide "free will," which is the ability to make choices among many possible actions, according to values that have shorter or longer term pay-offs, and includes the possibility of being unable to always calculate the best long-term payoff for itself and others.</div><div><br></div><div>Tara Maya</div></body></html>