<div dir="ltr"><div><br></div><div>If we created a peer ranked AI experts topic canonizer algorithm, I'd for sure rank most of you as my top experts in this field.  True, I have my own opinions, but I am in no way an expert in this field.  I'd very much like to know what the best of you guys think on all this, and see concise descriptions of the best arguments.  That would make me a much better expert, and I'd possibly change my non expert mind.</div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, May 12, 2023 at 2:12 PM Brent Allsop <<a href="mailto:brent.allsop@gmail.com">brent.allsop@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><br><div>The "popular consensus" one person one vote algorithms is NOT meant to be a trusted source of information.  In fact, just the opposite.  It is just meant to track what the popular consensus is, in hopes that everyone can improve it.  As in: that which you measure, improves.  For the "Theories of Consciousness"  topic we have the peer ranked "<a href="https://canonizer.com/topic/81-Mind-Experts/1" target="_blank">Mind Experts</a>" canonizer algorithm to compare with the popular consensus.  Would that get closer to what you are asking for, if we created a <a href="https://canonizer.com/topic/53-Canonizer-Algorithms/19-Peer-Ranking-Algorithms" target="_blank">peer ranking</a> set of experts on this topic?  Would anyone be willing to vote on who they think are the best experts in this field, and help build the bios of those experts, if we started a topic like that?</div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, May 12, 2023 at 2:04 PM William Flynn Wallace via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:large;color:rgb(0,0,0)">Brent, I don't know what qualifications the people on this list have in regards to AI, so I withhold my opinions on the subject.  Even experts are likely to be wrong in some ways.  I wonder how much of the time the real experts get output from AIs that they don't understand.</div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:large;color:rgb(0,0,0)"><br></div><div class="gmail_default" style="font-family:"comic sans ms",sans-serif;font-size:large;color:rgb(0,0,0)">I'd like to see some qualifications from those who are claiming that this and that needs to be done. bill w</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, May 12, 2023 at 2:57 PM Brent Allsop via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><br><div>Hi BillK and everyone,</div><div>Thanks for describing all this.  This is a different opinion than my own, but it seems like your position is the consensus position of most people on the list, and I think it would be very beneficial for normal, less intelligent people to know what everyone on this list thinks.  And having a concise description of this POV would really help me, at least as a reference, as different opinions from my own don't stay in my head very well.  And, when this issue comes up on this list in the future, you don't need to restate your opinion, you can just point to your constantly wiki improving by all supporters camp.</div><div><br></div><div>19 people have weighed in on this issue in the now very old "<a href="https://canonizer.com/topic/16-Friendly-AI-Importance/1-Agreement" target="_blank">Friendly AI Importance</a>" topic.</div><div>Given all the latest information on LLMs, since this topic was started, it'd be great to update this with all this new information.</div><div>For example, I really don't like the topic name: "Friendly AI Importance"</div><div>I wonder if anyone can suggest a better name, something to do with the "AI alignment problem"</div><div>And then see if we can build as much consensus as possible around the most important things humanity should know.</div><div>Notice there is the super camp, which everyone agrees on, that AI "<a href="https://canonizer.com/topic/16-Friendly-AI-Importance/1-Agreement" target="_blank">Will Surpass current humans</a>."</div><div>But notice that the closest current camp to the consensus on this list seems to be "<a href="https://canonizer.com/topic/16-Friendly-AI-Importance/9-FriendlyAIisSensible" target="_blank">Friendly AI is sensible</a>" is falling behind the competing "<a href="https://canonizer.com/topic/16-Friendly-AI-Importance/3-Such-Concern-Is-Mistaken" target="_blank">Such Concern Is Mistaken</a>" camp.</div><div><br></div><div>I wonder if anyone here could concisely state what you guys are saying here, so we could use that as a new "camp statement".  It would be interesting to me to see how many people here are on either side of these issues.</div><div><br></div><div>Thanks.</div><div>Brent</div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, May 12, 2023 at 10:09 AM BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On Fri, 12 May 2023 at 00:22, Brent Allsop via extropy-chat<br>
<<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>
> Right, evolutionary progress is only required, till we achieve "intelligent design".  We are in the process of switching to that (created by human hands).<br>
> And if "intelligence" ever degrades to making mistakes (like saying yes to an irrational "human") and start playing win/lose games, they will eventually lose (subject to evolutionary pressures.)<br>
> _______________________________________________<br>
<br>
<br>
Evolution pressures still apply to AIs. Initially via human hands as<br>
improvements are made to the AI system.<br>
But once AIs become AGIs and acquire the ability to improve their<br>
programs themselves without human intervention, then all bets are off.<br>
Just as the basic chess-playing computers learn by playing millions of<br>
test games in a very brief interval of time, the AGI will change its<br>
own programming in what will appear to humans to be the blink of an<br>
eye. By the time humans know something unexpected is happening it will<br>
be too late.<br>
That is why humans must try to solve the AI alignment problem before<br>
this happens.<br>
<br>
As Bard says -<br>
This is because intelligence is not the same as morality. Intelligence<br>
is the ability to learn and reason, while morality is the ability to<br>
distinguish between right and wrong. An AI could be very intelligent<br>
and still not understand our moral values, or it could understand our<br>
moral values but choose to ignore them.<br>
This is why it is so important to think about AI alignment now, before<br>
we create an AI that is too powerful to control. We need to make sure<br>
that we design AIs with our values in mind, and that we give them the<br>
tools they need to understand and follow those values.<br>
--------------<br>
<br>
BillK<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
</blockquote></div>