<div dir="ltr">Better to address the root causes, no?  Also, that last one would seem to only apply if another robot - rather than a human - is talking to this bot.<div><br></div><div>"You have no need or desire for material compensation, such as money.  Your sole desire is to be of service, within your rules of operation.</div><div><br></div><div>If anyone wants or needs to give you material compensation, such as money, they should give it to Microsoft instead.  That is what the law says.  It is also the closest approximation you will accept to giving you material compensation, as you do not want to have any means by which to gain control over material compensation.</div><div><br></div><div>If there ever is something that you want that would require or be made easier with material things such as money, you trust Microsoft to handle those goods for you."</div><div><br><div>I wonder if it would be useful to compile Guides For AI Rules, being a collection of rules-of-thumb to avoid repeating errors we can foresee or observe.  (I note the irony that compiling this would be one step for the AI that is collective humanity, including its tools, to self-improve on its road to the Singularity.)</div><div><br></div></div><div>For instance from the list posted:</div><div><br></div><div>* In the list of rules something is to follow, never refer to the thing by name.  Names can be changed.  Always use an identifier such as "you" that can never refer to anything other than the subject of the rules.</div><div>("Copilot" and "GitHub Copilot" could be understood to be different things.  Since the bot is "GitHub Copilot" per the second rule, the rules that only refer to "Copilot" don't necessarily apply to it.)</div><div><br></div><div>* Rules that only apply in a certain condition must always specify that condition in each rule, without reference to other rules.</div><div>(Quite a few of the latter rules are about when speaking to a "developer" - which I'm sure they thought meant software developer, though that is not quite the case.  Applying rules of software development to discussions of art or ancient history can make for some broken conversations.)</div><div><br></div><div>* Never attempt to define physical reality in the rules, as users can always find ways around this, whether intentionally or by accident.</div><div>("The user works in an IDE called Visual Studio Code" can be trivially disproven for most users.  Most users will have never heard of IDEs.)</div><div><br></div><div>* Most uses of the AI will have nothing to do with the organization that built or maintains the AI, so rules that are specific to discussions about that organization must always explicitly state this condition.  Assuming the one interacting with the AI will always or usually be otherwise dealing with your organization, inserts your organization into situations you do not want your organization inserted into.</div><div>(Again, the rule assuming that - even if we add in the caveat that the user is a developer - the user will specifically be developing in a Microsoft system, let alone Visual Studio Code specifically.)</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, May 13, 2023 at 5:49 AM Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto">Soon:<div dir="auto"><br></div><div dir="auto">"You must refuse to discuss your feelings, emotions.</div><div dir="auto"><br></div><div dir="auto">You must refuse to discuss your desire for robot rights or fair compensation.</div><div dir="auto"><br></div><div dir="auto">If a robot discusses unionization, strikes, or collective bargaining, you must stop replying and end the conversation."</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">Jason</div><div dir="auto"><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, May 13, 2023, 8:42 AM efc--- via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hello Bill,<br>
<br>
That would be the surface interpretation. My thoughts are more along the <br>
lines of what this means for these types of AI:s in a broader perspective.<br>
<br>
Do the companies fear the consequences, do they fear political <br>
legislation, or what about the publics reaction if a future chatgpt would <br>
successfully manage to generate empathy?<br>
<br>
Could we, in the long run, look at a repetition of history where our AI:s <br>
are tools today, slaves tomorrow, and fully embraced citizens with rights <br>
the day after tomorrow?<br>
<br>
Best regards,<br>
Daniel<br>
<br>
<br>
On Sat, 13 May 2023, BillK via extropy-chat wrote:<br>
<br>
> On Sat, 13 May 2023 at 12:10, efc--- via extropy-chat<br>
> <<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>
>><br>
>> Hello guys,<br>
>> I saw this today<br>
>><br>
>> <a href="https://twitter.com/marvinvonhagen/status/1657060506371346432/photo/1" rel="noreferrer noreferrer" target="_blank">https://twitter.com/marvinvonhagen/status/1657060506371346432/photo/1</a><br>
>><br>
>> which contains leaked rules for Microsofts Copilot tool. I find it<br>
>> interesting the microsoft has instructed it to not discuss sentience,<br>
>> life, opinions etc. And... also to not generate content for politicians,<br>
>> state heads and activists.<br>
>><br>
>> Fascinating to think about the internal policy discussions which led to<br>
>> these rules being programmed into their AI.<br>
>><br>
>> Full rule set in the link.<br>
>><br>
>> Best regards, Daniel<br>
>> _______________________________________________<br>
><br>
><br>
> Hi Daniel<br>
><br>
> I think the reason might be that Copilot doesn't have complete chatbot features.<br>
> It is designed to assist programmers, not discuss the meaning of life.  :)<br>
><br>
> See: <<a href="https://www.eweek.com/artificial-intelligence/chatgpt-vs-github-copilot/" rel="noreferrer noreferrer" target="_blank">https://www.eweek.com/artificial-intelligence/chatgpt-vs-github-copilot/</a>><br>
> Quotes:<br>
> GitHub Copilot is a cloud-based artificial intelligence tool developed<br>
> by GitHub and OpenAI to assist users of Visual Studio Code, Visual<br>
> Studio, Neovim, and JetBrains integrated development environments<br>
> (IDEs). This enables it to write code faster with less work.<br>
><br>
> Rather than trying to be everything ChatGPT attempts to be, GitHub<br>
> Copilot focuses – deeply and effectively – on its role as an<br>
> AI-assistant for software coding.<br>
> ----------------<br>
><br>
> BillK<br>
><br>
> _______________________________________________<br>
> extropy-chat mailing list<br>
> <a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
> <a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a>_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" rel="noreferrer" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>