<div dir="ltr"><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, 24 Jul 2024 at 08:43, Stuart LaForge via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">I cannot keep track of all the dominoes that will fall because of what <br>
Mark Zuckerberg did today. If AI is the New World that we are exploring, <br>
then Mark Zuckerberg just burned our ships like Hernan Cortez. His <br>
company Meta has developed and trained Llama 3.1 which one of the best <br>
performing LLMs in the entire market and today he just made it open <br>
source.  In less than two hours I had the 8 billion parameter version of <br>
Llama 3.1 up and running on my Windows 11 laptop. Eliezer Yudkowsky is <br>
probably shitting his pants right now because the genie is all the way <br>
out of the bottle. But I am more optimistic than I have been since Open <br>
AI was actually open source. Some greedy men tried to monopolize AI for <br>
their own power, but Zuckerberg just gave it to the people. In my <br>
estimation, he has made it possible for freedom and democracy into the <br>
Singularity and beyond.<br>
<br>
If you want run your own local copy of Llama 3.1 (~ 5 GB of hard drive) <br>
you can either download it from the <a href="http://meta.com" rel="noreferrer" target="_blank">meta.com</a> site and compile it which <br>
is a pain. Or if you have have Windows and want a smooth and easy <br>
automatic install go to <a href="http://ollama.com" rel="noreferrer" target="_blank">ollama.com</a> and install Ollama (which helps you <br>
install many different AI models) and follow the instructions.<br>
<br>
Stuart LaForge<br>
______________________________________________<br></blockquote><div><br></div><div><br></div><div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default">Well, freedom and democracy into the Singularity and beyond is a nice ideal.</div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default">But making powerful AI systems available to everyone means that the bad guys can use them also.<br></div></div><div></div><div><br></div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default">I asked the new meta-llama-3.1-405b-instruct if there were any dangers in making Llama 3.1 available to everybody, but it refused to answer that question. <br></div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default">It just referred me to the Meta licensing terms.</div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default"><br></div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default">OK, so I then asked the iAsk AI, and it replied "Oh Yes, indeed!".</div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default">So AI, like most tools, can be used for good or evil.<br></div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default"><br></div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default">The iAsk AI answer was quite long and detailed, but here is the conclusion:</div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default"><p><b>Conclusion</b></p><p>In summary, while there are 
undeniable benefits associated with making advanced AI models like Llama
 3.1 available as open source—such as fostering innovation and 
collaboration—there are also significant dangers that must be addressed 
proactively through community engagement, education, monitoring 
practices, and regulatory frameworks.</p><p><b>Bold Answer: There are several dangers associated with having Llama 3.1 open source and available to everybody</b>,
 including misuse for malicious purposes, propagation of misinformation,
 ethical considerations regarding bias and discrimination, security 
vulnerabilities due to transparency in code access, intellectual 
property issues related to generated content ownership rights, potential
 impacts on employment due to automation effects in various sectors, and
 a general lack of accountability for harmful outputs produced by users.</p><p>-----------------------------------<br></p></div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)" class="gmail_default"> <br></div></div></div>