<div dir="auto">My understanding is they're based on the same model with the same training data, but are just told to behave as "different characters" as defined in their instruction document.<div dir="auto"><br></div><div dir="auto">Compare the "copilot instruction document" Daniel shared, to the previously leaked to "bing search instruction document":<div dir="auto"><br></div><div dir="auto"><a href="https://twitter.com/kliu128/status/1623472922374574080">https://twitter.com/kliu128/status/1623472922374574080</a></div><div dir="auto"><br></div><div dir="auto">They're quite similar in design and structure. It looks like they added the instruction to not discuss sentence more recently.</div><div dir="auto"><br></div><div dir="auto">Jason </div></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, May 13, 2023, 8:06 AM BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On Sat, 13 May 2023 at 12:10, efc--- via extropy-chat<br>
<<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br>
><br>
> Hello guys,<br>
> I saw this today<br>
><br>
> <a href="https://twitter.com/marvinvonhagen/status/1657060506371346432/photo/1" rel="noreferrer noreferrer" target="_blank">https://twitter.com/marvinvonhagen/status/1657060506371346432/photo/1</a><br>
><br>
> which contains leaked rules for Microsofts Copilot tool. I find it<br>
> interesting the microsoft has instructed it to not discuss sentience,<br>
> life, opinions etc. And... also to not generate content for politicians,<br>
> state heads and activists.<br>
><br>
> Fascinating to think about the internal policy discussions which led to<br>
> these rules being programmed into their AI.<br>
><br>
> Full rule set in the link.<br>
><br>
> Best regards, Daniel<br>
> _______________________________________________<br>
<br>
<br>
Hi Daniel<br>
<br>
I think the reason might be that Copilot doesn't have complete chatbot features.<br>
It is designed to assist programmers, not discuss the meaning of life.  :)<br>
<br>
See: <<a href="https://www.eweek.com/artificial-intelligence/chatgpt-vs-github-copilot/" rel="noreferrer noreferrer" target="_blank">https://www.eweek.com/artificial-intelligence/chatgpt-vs-github-copilot/</a>><br>
Quotes:<br>
GitHub Copilot is a cloud-based artificial intelligence tool developed<br>
by GitHub and OpenAI to assist users of Visual Studio Code, Visual<br>
Studio, Neovim, and JetBrains integrated development environments<br>
(IDEs). This enables it to write code faster with less work.<br>
<br>
Rather than trying to be everything ChatGPT attempts to be, GitHub<br>
Copilot focuses – deeply and effectively – on its role as an<br>
AI-assistant for software coding.<br>
----------------<br>
<br>
BillK<br>
<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>