<div dir="ltr">Hi Brent,<div>There is something very wrong with your drawing. The arrow from Complex Perception Process (CPP) to the 3D model doesn't exist. I think that is the key to all our clashes (not just mine but almost everybody else on the list), also you don't need the language centers or just make it a bubble in the conceptual models' cloud. Language is just another conceptual model among the others. What you call a 3D model composed of subjective qualities is identical to that cloud of "conceptual models". I know it sounds weird to you but what you see with your eyes is in a sense a model, it is not made with words but images and colors and so on but that is the vocabulary of the visual system. It is another form of language. It is a model because it is re-created using some algorithm that interprets and manipulates the information received, it filters what is not needed and makes interpolations to make sense of the data. <br>Giovanni <br><br><br><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 21, 2023 at 2:01 PM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><br><div>Your model is based on a Naive Realism model.</div><div><br></div><div>Here is a representational model which will actually be possible without magic:</div><div><br></div><div><img src="cid:ii_lgr19o7j2" alt="image.png" width="562" height="282"><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 21, 2023 at 5:19 AM Ben Zaiboc via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
  
    
  
  <div>
    Here is a diagram (because I'm generally a visual person, and can
    usually understand things if I can draw them):<br>
    <br>
    <img src="cid:187a5985a0f3a0d3c3c1" alt=""><br>
    <br>
    A very general, high-level and crude diagram that tries to
    illustrate the concept of 'symbol grounding' as I understand it,
    from these discussions we've been having. Plus an arrow representing
    output of speech or text, or anything really, that the system is
    capable of outputting (obviously there's a hell of a lot going on in
    every single element in the diagram, that I'm ignoring for
    simplicity's sake).<br>
    <br>
    As far as I understand, the 'symbol grounding' occurs between the
    conceptual models (built up from sensory inputs and memories) and
    the language centres (containing linguistic 'tokens', or symbols),
    as we've previously agreed.<br>
    <br>
    There are two arrows here because the models can be based on or
    include data from the language centres as well as from the
    environment. The symbols (tokens) in the language centres represent,
    and are 'grounded in', the conceptual models (these are the object
    and action models I've discussed earlier, and likely other types of
    models, too, and would include a 'self-model' if the system has one,
    linked to the token "I").<br>
    <br>
    The sensory inputs are of various modalities like vision, sounds,
    text, and so-on (whatever the system's sensors are capable of
    perceiving and encoding), and of course will be processed in a
    variety of ways to extract 'features' and combine them in various
    ways, etc.<br>
    <br>
    I didn't include something to represent Memory, to keep things as
    simple as possible.<br>
    <br>
    So, could we say that this diagram illustrates, in a very general
    way, what's going on in a human? in a LLM AI? Both? Neither?<br>
    <br>
    Would you say it's broadly correct, or missing something, or
    incorrect in another way?<br>
    <br>
    Ben<br>
    <br>
    <br>
  </div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>