<div dir="ltr"><div dir="ltr">On Thu, Aug 25, 2022 at 10:39 PM spike jones via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class="msg4350917041409306963"><div lang="EN-US" style="overflow-wrap: break-word;"><div class="gmail-m_4350917041409306963WordSection1"><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p><div style="border-right:none;border-bottom:none;border-left:none;border-top:1pt solid rgb(225,225,225);padding:3pt 0in 0in"><p class="MsoNormal"><b>…</b>> <b>On Behalf Of </b>Adrian Tymes via extropy-chat<br><b>Subject:</b> Re: [ExI] i got friends in low places<u></u><u></u></p></div><p class="MsoNormal"><u></u> <u></u></p><div><div><p class="MsoNormal">On Thu, Aug 25, 2022 at 4:54 PM spike jones via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<u></u><u></u></p></div><div><blockquote style="border-top:none;border-right:none;border-bottom:none;border-left:1pt solid rgb(204,204,204);padding:0in 0in 0in 6pt;margin-left:4.8pt;margin-right:0in"><div><div><div><div><p class="MsoNormal">…<u></u><u></u></p><p class="MsoNormal">>>…Doesn’t that seem paradoxical? <u></u><u></u></p></div></div></div></div></blockquote><div><p class="MsoNormal"><u></u> <u></u></p></div><div><p class="MsoNormal">>…No, that seems like getting hung up on the various definitions of "intelligent".  There is not one single definition, and many of them are not simple yes/no things where you can say something (such as a processor running a Kalman filter) is or is not (that version of) intelligent.<u></u><u></u></p><p class="MsoNormal"></p></div></div></div></div></div></div></blockquote><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class="msg4350917041409306963"><div lang="EN-US" style="overflow-wrap: break-word;"><div class="gmail-m_4350917041409306963WordSection1"><div><div><div><p class="MsoNormal"> If we run with Adrian’s notion that the definition of intelligence matters, then we could create human-level intelligence to do stuff for us without causing the singularity.</p></div></div></div></div></div></div></blockquote><div><br></div><div>You seriously misquote me.  The definition of the word "intelligence" matters to explaining how you wound up with seemingly contradictory statements, because you were using two different senses of the word.  This has nothing to do with actual software.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class="msg4350917041409306963"><div lang="EN-US" style="overflow-wrap: break-word;"><div class="gmail-m_4350917041409306963WordSection1"><p class="MsoNormal"><u></u><u></u></p><p class="MsoNormal"><u></u>Toss those out as they reach the bottom, say 50<sup>th</sup> place, replace them with a randomly chosen factor from the long list of possibly relevant metrics.  Over time, the algorithm should learn which of the 50 metrics on the list of a few thousand observables are most relevant to predicting the outcome of whatever it is studying.</p></div></div></div></blockquote><div><br></div><div>This is not "human-level" intelligence, but instead using a robot to do a task so tedious that humans would struggle to do it - one of the advantages of robots.</div><div><br></div><div>Also, this sort of thing is already being done.</div></div></div>