<div dir="ltr"><div dir="ltr">On Tue, Oct 13, 2020 at 12:27 PM Jalil Farid via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br>I think one question to ask is "what is consciousness?"<br></blockquote><div><br></div><div>That's a rabbit hole we've been down many times to no avail. In the case of GPT-3, though, we don't really need to ask it because it's clear from its design that it's incapable of consciousness by almost any definition. </div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">After hearing the remarks, it appears a program is probably on track within the next 10 years to at least statistically answer some basic questions and pass a Turing Test. We probably will see some commercial applications for weak AIs, but within my lifetime it's very likely that GPT-10 is mostly impossible to differentiate from a real human.<br></blockquote><div><br></div><div>Weak AIs are already being used for chatbots, customer service call centers, and many other things. GPT-N alone will never pass a Turing test--it's a language generator with no understanding of anything. </div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Sure you can ask, "Is it concious?" But who are we to decide what consciousness is and isn't?<br></blockquote><div><br></div><div>Right. It's a waste of time. </div><div><br></div><div>-Dave</div></div></div>