<div dir="ltr"><div dir="ltr">On Thu, Mar 23, 2023 at 11:59 AM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Mar 23, 2023, 2:37 PM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">On Thu, Mar 23, 2023 at 11:09 AM Jason Resch <<a href="mailto:jasonresch@gmail.com" rel="noreferrer" target="_blank">jasonresch@gmail.com</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto">Take all the neural impulses from the sense organs a human brain receives from birth to age 25 as a huge list of tuples in the format: (neuron id, time-stamp). This is ultimately just a list of numbers. But present in these numbers exists the capacity for a brain to learn and know everything a 25-year-old comes to learn and know about the world. If a human brain can do this from this kind of raw, untagged, "referentless" data alone, then why can't a machine?<br></div></blockquote><div><br></div><div>"A machine" can, if it is the right kind of machine.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Then you would agree with me that patterns and correlations alone within an unlabeled dataset are sufficient to bootstrap meaning and understanding for a sufficient intelligence?</div></div></blockquote><div><br></div><div>Again: the error comes in categorizing which kind of "sufficient intelligence".\</div><div><br></div><div>Just because one type of AI could do a task does not mean that all AIs are capable of that task.  You keep invoking the general case, where an AI that is capable is part of a superset, then wondering why there is disagreement about a specific case, discussing a more limited subset that only contains other AIs.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto"><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>A pure LLM like the ones we have been discussing is not the right kind of machine. </div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">That's an assertion but you do not offer a justification. Why is a LLM not the right kind of machine and what kind of machine is needed?</div></div></blockquote><div><br></div><div>As posted previously, the right kind of machine might incorporate a LLM, but not consist only of a LLM (in other words, be a "pure LLM").  More capabilities than just a LLM are necessary.</div></div></div>