<div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Fri, Apr 10, 2026 at 5:25 AM BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:</span></div></div><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><font size="4" face="georgia, serif"><i><span style="color:rgb(0,0,0)"><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>One response is to </span><a href="https://www.nature.com/articles/d41586-025-02469-y" target="_blank" style="">fight fire with fire</a><span style="color:rgb(0,0,0)"> by using AI in peer review or to weed out fake papers.</span></i></font></blockquote><div><br></div><div><font size="4" face="tahoma, sans-serif"><b>I<span class="gmail_default" style="">'m not sure I</span> understand how that could work.<span class="gmail_default" style=""> It seems to me the important thing is not in determining if a paper was written by an AI or a human, it's in determining if the paper is any good; or when it comes to stuff that has not yet been peer reviewed, at least a 10% chance that the paper will turn out to be pretty good. I don't suppose it would take a very advanced AI to weed out papers that contained obvious logical blunders, or those that go on and on about the properties of magical crystals from Atlantis and other such nonsense. </span></b></font></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style=""><br></span></b></font></div><div><font size="4" face="tahoma, sans-serif"><b><span class="gmail_default" style=""> John K Clark</span></b></font></div><div><span class="gmail_default" style="font-family:arial,helvetica,sans-serif"><br></span></div><div><span class="gmail_default" style="font-family:arial,helvetica,sans-serif"><br></span></div><div><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">  </span> </div><div dir="ltr" class="gmail_attr"><br></div><div dir="ltr" class="gmail_attr"><br></div><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">On Fri, 10 Apr 2026 at 05:27, Jason Resch via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>> In my recent experience posting to <a href="http://arxiv.org" target="_blank">arxiv.org</a> is not what it used to be. It is now heavily moderated and restricted. One paper I submitted sat in an on hold status for over a month before it was rejected without any feedback, and without any ability to appeal or resubmit.<br>><br>> I have since found a truly open eprint archive which hosts up to 50 GB of papers, assigns DOI numbers, and publishes immediately:<br>> <a href="http://zenodo.org" target="_blank">zenodo.org</a><br>> It is run by CERN. I submitted three papers there recently and it is what arxiv used to be: a place to post papers without gatekeeping.<br>><br>> Jason<br>> _______________________________________________<br><br><br>Arxiv has been flooded with AI-generated (slop) papers. Controlling this has forced them into more strict moderation.<br><div>Zenodo and other preprint servers are facing the same problem.</div><div>BillK</div><br>See: <<a href="https://www.science.org/content/article/arxiv-preprint-server-clamps-down-ai-slop" target="_blank">https://www.science.org/content/article/arxiv-preprint-server-clamps-down-ai-slop</a>><br><div>and <<a href="https://sciencesprings.wordpress.com/2026/02/16/from-nature-how-ai-slop-is-causing-a-crisis-in-computer-science/" target="_blank">https://sciencesprings.wordpress.com/2026/02/16/from-nature-how-ai-slop-is-causing-a-crisis-in-computer-science/</a>></div><div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)">Quote:</div><div style="font-family:arial,sans-serif;font-size:small;color:rgb(0,0,0)"><p>One response is to <a href="https://www.nature.com/articles/d41586-025-02469-y" target="_blank">fight fire with fire</a>
 by using AI in peer review or to weed out fake papers. Other options 
are blunter. The arXiv has, for example, added eligibility checks for 
first-time submitters and <a href="https://www.nature.com/articles/d41586-025-03664-7" target="_blank">banned computer-science review articles</a>
 that have not been previously accepted by a peer-reviewed outlet. The 
organizers of the International Joint Conferences on Artificial 
Intelligence (“IJCAI”), meanwhile, have sought to limit submissions by 
introducing a policy that requires researchers to pay US$100 for every 
subsequent paper after their first. These payments then get distributed 
between reviewers.</p><p>The stakes are high, says Lee. If the issue is not addressed, “trust 
in scientific research, particularly within computer science, faces a 
substantial risk of erosion”, he says.</p></div></div></div></div><br>
</blockquote></div></div>