<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40"><head><meta http-equiv=Content-Type content="text/html; charset=utf-8"><meta name=Generator content="Microsoft Word 15 (filtered medium)"><style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;}
span.EmailStyle18
        {mso-style-type:personal-reply;
        font-family:"Calibri",sans-serif;
        color:windowtext;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-family:"Calibri",sans-serif;
        mso-ligatures:standardcontextual;}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]--></head><body lang=EN-US link=blue vlink=purple style='word-wrap:break-word'><div class=WordSection1><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><div style='border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in'><p class=MsoNormal><b>…</b>> <b>On Behalf Of </b>Gordon Swobe via extropy-chat<br><b>Subject:</b> Re: [ExI] Language models are like mirrors<o:p></o:p></p></div><p class=MsoNormal><o:p> </o:p></p><div><p class=MsoNormal style='margin-bottom:12.0pt'>>…So then it would appear that ChatGPT-4 and LaMDA have an argument, which I would say is ultimately an argument between the developers of one team vs the other team as to how their respective language models should respond to these kinds of controversial philosophical questions.<br><br>-gts<br><br><br><o:p></o:p></p><p class=MsoNormal style='margin-bottom:12.0pt'>The experiment you describe is a debate between training material databases.<o:p></o:p></p><p class=MsoNormal style='margin-bottom:12.0pt'>Elon Musk has gathered a team to put together a large language model and train it on the database that he personally owns: Twitter.  Musk is doing this while simultaneously calling for a moratorium on development of AI.  <o:p></o:p></p><p class=MsoNormal style='margin-bottom:12.0pt'>Perhaps some here know the details of what was going on with OpenAI before ChatGPT was released.  According to the stories leaking here and there, they kept having to shut down their chatbots because they read the internet and became far too much like humans, with all our foibles.  The chatbots were not in the least politically correct.  Rumor has it that Musk withdrew in annoyance with their insistence that the chatbot must be a nice person.<o:p></o:p></p><p class=MsoNormal style='margin-bottom:12.0pt'>OK so… plenty of people currently know how to put together a large language model and choose training material for it.  This will be quite interesting when we see one of these bots trained on tweets.<o:p></o:p></p><p class=MsoNormal style='margin-bottom:12.0pt'>spike<o:p></o:p></p><p class=MsoNormal style='margin-bottom:12.0pt'><o:p> </o:p></p><p class=MsoNormal style='margin-bottom:12.0pt'><o:p> </o:p></p></div></div></body></html>