<div dir="auto"><div><br><br><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr">On Thu, Feb 12, 2026, 8:58 AM BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Is a secure AI assistant possible?<br>
Experts have made progress in LLM security. But some doubt AI<br>
assistants are ready for prime time.<br>
By Grace Huckins   February 11, 2026<br>
<br>
<<a href="https://www.technologyreview.com/2026/02/11/1132768/is-a-secure-ai-assistant-possible/" rel="noreferrer noreferrer" target="_blank">https://www.technologyreview.com/2026/02/11/1132768/is-a-secure-ai-assistant-possible/</a>><br>
Quote:<br>
But all that power has consequences. If you want your AI personal<br>
assistant to manage your inbox, then you need to give it access to<br>
your email—and all the sensitive information contained there. If you<br>
want it to make purchases on your behalf, you need to give it your<br>
credit card info. And if you want it to do tasks on your computer,<br>
such as writing code, it needs some access to your local files.<br>
<br>
There are a few ways this can go wrong.<br>
-----------------------<br>
<br>
Indeed!   BillK  :)<br></blockquote></div></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">As a security researcher, the weak link has always been the human element. Leave free thumb drives scattered in a parking lot, and people plug them in at work and unknowingly install malware to their machines. People fall victim to social engineering, scams, divulge secrets in apparently innocent conversations, etc.</div><div dir="auto"><br></div><div dir="auto">Inserting AI agents into any system or process is like inserting humans into what otherwise may be a secure arrangement. The range of possible behaviors, edge cases, failure modes, range of inputs and outputs, is too vast to test, too hard to predict, and there will almost always remain ways an outsider can trigger an unintended consequence that leads to trouble.</div><div dir="auto"><br></div><div dir="auto">Perhaps the problem can be mitigated by having to convince a quorum of security conscious paranoid AI personalities that there is little room for harm in a particular action. But even this won't be full proof, and perhaps it never can be given the general inability to know what pieces of code may eventually do.</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">Jason </div></div>