<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Feb 20, 2023 at 12:48 PM spike jones via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br>
<br>
-----Original Message-----<br>
From: extropy-chat <<a href="mailto:extropy-chat-bounces@lists.extropy.org" target="_blank">extropy-chat-bounces@lists.extropy.org</a>> On Behalf Of<br>
BillK via extropy-chat<br>
...<br>
> _______________________________________________<br>
<br>
<br>
>...Many writers are reporting that ChatGPT output needs a tremendous amount<br>
of editing and correction.<br>
Not for spelling or grammar, though. It is fine with that.<br>
The problem is that ChatGPT makes stuff up. Very realistically sounding<br>
stuff... BillK<br>
<br>
Ja, I have been fooling with it enough to catch it doing some pretty goofy<br>
stuff while sounding exactly like it knows what it is talking about.  I<br>
think this is why we need a learning ChatGPT.<br>
<br>
This is Psychology Today's take on it: <br>
<br>
<a href="https://www.psychologytoday.com/us/blog/biocentrism/202302/will-ai-ever-be-c" rel="noreferrer" target="_blank">https://www.psychologytoday.com/us/blog/biocentrism/202302/will-ai-ever-be-c</a><br>
onscious<br><br></blockquote><div><br></div><div>I find it a bit ridiculous to assume they aren't already, especially when they haven't put forward a theory of what they believe conscious to be.</div><div><br></div><div>I think anything possessing a knowledge state is conscious, and therefore anything capable of demonstrating the presence of some knowledge to us we can presume that something, somewhere, within that system is conscious. In that sense, a guided missile is conscious. It demonstrates knowledge of the relative position between itself and the target by homing in on its target. Likewise DeepBlue is conscious of the board state and positions of the pieces on that board. It demonstrates this by generating meaningful moves for a given state of a board and the game. When ChatGPT provides meaningful responses to our queries, it demonstrates knowledge both of our queries and of the related knowledge it pulls in to craft its response to us.</div><div><br></div><div>None of this is meant to suggest that these devices have consciousness anything like humans. Indeed I would expect the consciousness of these machines to be of a radically different form than human, or animal consciousness. But I also think the variety of possible consciousnesses is as varied as the number of possible mathematical objects, or at least as varied as the number of possible computations (a countable infinity).</div><div><br></div><div>But it is very dangerous to assume that something is not conscious when it is. That is almost as dangerous as assuming something is conscious when it is not.</div><div><br></div><div>Jason</div></div></div>