<div dir="ltr"><div><br></div>Hi Giovani,<div><br><div>I'm trying to get my head around this view that all there are is relationships.</div><div><br></div><div>My normal thinking is, there is the subject, I.  There is the object, the ball.  Then there is the programmed relationship;  I throw.</div><div>I, is a label for my body.  The ball is a round object that fits in my hand.  And "throw" is a label for a set of programming that defines the relationship (what am I going to do to the ball?)</div><div>For me, it is the computational binding which contains all the diverse sets of programmed, or meaningful relationships.  For me, you still need the objective, for the relationships to be meaningful.</div><div><br></div><div>So I'm trying to figure out how one might achieve all that with relationships, only.</div><div>So I could be defined as the one doing the throwing.  And the ball could be defined as what is being thrown.</div><div>And I guess a red property could be defined as a property of something that is different from something that is green.<br></div><div>Is this the kind of stuff you are saying is all that really happens in real life?</div><div><br></div><div><br></div><div><br></div><div><br></div></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Apr 17, 2023 at 3:24 PM Giovanni Santostasi via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><b>Start with three main components:<br>a. Sensorimotor experience (perception and action)<br>b. Symbolic representation (language, symbols)<br>c. Grounding (the process that connects symbols to experience)<br></b>Gordon, <br>I have already said asking things directly to GPT-4 it is not always the best way to test its knowledge of itself. But you are using it as a tool to help you with your imagination and express your ideas, that is ironic but fine. <br>The problem with the above is the "process that connects symbols to experience". But how do you get symbols in the first place?<br>Do you realize that making symbols is the exact opposite of "grounding"?<br>It is the exact opposite process because you may start with a "real" apple in front of you to a generalization of apple that is based on seeing many apples, excluding other objects from the apple category and so on. You need to compare apples to apples (see what I did there?) and apples to oranges to understand what an apple is. It is about the relationships, the connections. The grounding you talk about is a possible way to do (that is relevant for evolutionary purposes) but it is not the ONLY way to do it. Any relationship would do. <br>I don't have time right now but later I will do an experiment. I will come up with invented objects that have certain common characteristics, like edges (basically geometrical shapes). Then train an AI to create categories based on whatever the AI things is in common among these objects. I bet you that it will be able to create categories just from comparing these objects with each other even if these objects are abstract (I said shapes but they can be described by a set of numbers or even a rule to make them). Once you have the categories you can assign words to them so we know what we talk about and then have a convo. <br>Language can be built from relationships without referents to the real world or better said the only way to build meaning in language is to rely on the relationships. The grounding process you have in mind, Gordon, is not what really happens in reality. Maybe the grounding you imagine gives you solace but it is not really what happens in real life. <br><br>Giovanni <br><br><br><br><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Apr 17, 2023 at 1:58 PM Gordon Swobe via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">On Mon, Apr 17, 2023 at 1:58 PM Ben Zaiboc via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br><br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">I suppose that's what I want, a graphical representation <br>
of what you mean by 'grounding', incorporating these links.</blockquote><div><br>Not sure how to do it incorporating your links. I started scratching my head trying to think of the best way to diagram it, then it occured to me to ask GPT-4. It certainly "understands" the symbol grounding problem and why it cannot solve it for itself. Here is its solution.<br><br>Prompt: </div><div>How would you draw a diagram of symbol grounding to make it easy to understand?<br><br>Continuation:<br>To create an easily understandable diagram of symbol grounding, follow these steps:<br><br>Start with three main components:<br>a. Sensorimotor experience (perception and action)<br>b. Symbolic representation (language, symbols)<br>c. Grounding (the process that connects symbols to experience)<br><br>Draw three circles, one for each component, and label them accordingly:<br>a. A circle for "Sensorimotor Experience" at the bottom left<br>b. A circle for "Symbolic Representation" at the bottom right<br>c. A circle for "Grounding" at the top center<br><br>Connect the circles with arrows to represent the flow of information:<br>a. Draw an arrow from "Sensorimotor Experience" to "Grounding"<br>b. Draw an arrow from "Symbolic Representation" to "Grounding"<br>c. Draw an arrow from "Grounding" back to both "Sensorimotor Experience" and "Symbolic Representation"<br><br>Add brief descriptions to each arrow to clarify the processes:<br>a. Arrow from "Sensorimotor Experience" to "Grounding": "Extraction of features and patterns"<br>b. Arrow from "Symbolic Representation" to "Grounding": "Association of symbols with features and patterns"<br>c. Arrow from "Grounding" back to "Sensorimotor Experience": "Guided perception and action"<br>d. Arrow from "Grounding" back to "Symbolic Representation": "Generation of meaningful symbols"<br><br>Add examples to make the diagram more relatable:<br>a. Next to "Sensorimotor Experience", you can add an image of a cat and a person observing the cat<br>b. Next to "Symbolic Representation", you can write the word "cat" or draw a simple icon representing a cat<br>c. Add an image of a brain or a thinking cloud in the "Grounding" circle<br><br>With these steps, you will create a diagram that visually represents the concept of symbol grounding, making it easier to understand. The examples and descriptions help clarify the connections between sensorimotor experiences, symbolic representations, and the grounding process.<br><br>-GPT-4<br>---<br><br>-gts<br><br></div></div></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>