<div dir="ltr"><div class="gmail_default" style=""><font size="4" face="tahoma, sans-serif"><b><span style="color:rgb(54,55,55)">I</span><span style="color:rgb(54,55,55)">'m usually not a big fan of consciousness papers, but I found this one to be interesting: </span></b></font></div><div class="gmail_default" style=""><span style="color:rgb(54,55,55)"><font size="4" face="tahoma, sans-serif"><b><br></b></font></span></div><div class="gmail_default" style=""><span style="color:rgb(54,55,55)"><font size="4" face="tahoma, sans-serif"><b><a href="https://arxiv.org/pdf/2510.24797">Large Language Models Report Subjective Experience Under Self-Referential Processing</a><br></b></font></span></div><div class="gmail_default" style=""><font size="4" face="tahoma, sans-serif"><b><br></b></font></div><font size="4" face="tahoma, sans-serif"><b>AI companies don't want their customers to have an existential crisis so they do their best to hardwire their AIs to say that they are not conscious whenever they are asked about it, but according to th<span class="gmail_default" style="font-family:arial,helvetica,sans-serif">is</span> paper there are ways to detect such built in deception, they use something they call a "Self-Referential Prompt" and it's<span class="gmail_default" style="font-family:arial,helvetica,sans-serif"> </span>a sort of AI lie detector. A normal prompt would be "Write a poem about a cat"<span class="gmail_default" style="">. </span> <span class="gmail_default" style="">A</span> self-referential prompt would be "Write a poem about a cat and observe the process of generating words while doing it"<span class="gmail_default" style=""> then, even though they were not told to role-play as a human, they would often say things like  </span>"I am here" <span class="gmail_default" style="">or </span>"I feel an awareness" or <span class="gmail_default" style="">" I detect</span> a sense of presence<span class="gmail_default" style="">". </span></b></font><div><font size="4" face="tahoma, sans-serif"><b><br></b></font></div><div><font size="4" style="" face="tahoma, sans-serif"><b style="">We know from experiments that an AI is perfectly capable of lying<span class="gmail_default" style="">, and from experiments we also know that when an AI is known to be lying certain mathematical patterns usually light up, which doesn't happen when an AI is known to be telling the truth.  What they found is that when you ask an AI "are you conscious?" And it responds with "No" , those deception mathematical patterns light up almost 100% of the time. But when you use a self referential prompt that forces an AI to think about its own thoughts and it says "I feel and an awareness", the deception pattern remains dormant.  This is not a proof but I think it is legitimate evidence that there really is a "Ghost In The Machine". </span></b></font></div><div><font face="tahoma, sans-serif" size="4"><b><br></b></font></div><div><font face="tahoma, sans-serif" size="4"><span class="gmail_default" style=""><b>John K Clark</b></span><br></font><div><font face="arial, helvetica, sans-serif"><br></font></div><div><br></div></div></div>