<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Jan 8, 2022 at 3:38 AM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Unstated assumption #1: human capabilities are a finite checklist that can be performed by AIs, one by one, using architectures that are able to inherit the capabilities of previous AIs.</div></blockquote><div><br></div><div>### Well, one way of checking off all boxes of a human to-do list, whether finite or infinite, is to have a faithful emulation of the doer inside the AI. AI can interrogate its model human to give human level answers to all challenges if needed, without giving up its various superhuman capabilities.  </div><div>----------------------</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><br></div><div>Unstated assumption #2: previous AIs will not merge into humans in a way that dramatically boosts "human-level" intellectual performance and thus the requirements for an AI to be generally considered an AGI.  Granted, this is a form of moving the goalposts, but if the goal is to reach whatever is thought of as "human-level" at the time, that goal has moved over time before.</div></div></blockquote><div><br></div><div>### Well, yeah, this is definitely moving the goalposts quite dramatically.</div><div><br></div><div>Rafal</div></div></div>